999 resultados para Filosofia de la tecnologia


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Il cervello è una rete di cellule nervose connesse da assoni e le cellule stesse sono reti di molecole connesse da reazioni biochimiche. Anche le società sono reti di persone collegate da rapporti di amicizia, parentela e legami professionali. Su più larga scala, catene alimentari ed ecosistemi possono essere rappresentati come reti di specie viventi. E le reti pervadono la tecnologia: Internet, reti elettriche e sistemi di trasporto non sono che pochi degli esempi possibili. Anche il linguaggio che si sta usando in questo momento per veicolare questi ragionamenti a chi legge è una rete, fatta di parole connesse da relazioni sintattiche. A dispetto dell'importanza e della pervasività delle reti, gli scienziati hanno sempre avuto poca comprensione delle loro strutture e proprietà. In che modo le interazioni di alcuni nodi non funzionanti in una complessa rete genetica possono generare il cancro? Come può avvenire così rapidamente la diffusione in taluni sistemi sociali e di comunicazioni, portando ad epidemie di malattie e a virus informatici? Come possono alcune reti continuare a funzionare anche dopo che la maggioranza dei loro nodi ha, invece, smesso di farlo? [...] Le reti reali sono realmente casuali?

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La presente ricerca si inquadra nell’ambito della risoluzione dei problemi legati alla chirurgia ossea, per la cura e la sostituzione di parti di osso in seguito a fratture, lesioni gravi, malformazioni e patologie quali osteoporosi, tumori, etc… Attualmente la progettazione di impianti per le sostituzioni/rigenerazioni ossee richiede che i materiali sviluppati siano in grado di “mimare” la composizione e la morfologia dei tessuti naturali, in modo da generare le specifiche interazioni chimiche esistenti nei tessuti dell’organismo con cui vengono a contatto e quindi di biointegrarsi e/o rigenerare l’osso mancante nel miglior modo possibile, in termini qualitativi e quantitativi. Per lo sviluppo di sostituti ossei porosi sono state sperimentate 2 tecnologie innovative: il freeze-casting ed il foaming. Gli impianti ceramici realizzati hanno presentano una dimensione dei pori ed un’interconnessione adeguata sia per l’abitazione cellulare che per la penetrazione dei fluidi fisiologici e la vascolarizzazione. In particolare l’elevata unidirezionalità nei campioni ottenuti mediante freeze-casting si presenta molto promettente poiché fornisce cammini guida che migliorano la vascolarizzazione dell’impianto e l’abitazione cellulare in tempi rapidi e nella parte più interna dello scaffold. D’altra parte, la tecnologia del foaming ha permesso l’ottenimento di materiali apatitici ad alta porosità multidimensionale ed interconnessa con proprietà meccaniche implementate rispetto a tipologie precedenti e, lavorabili dopo sinterizzazione mediante prototipazione rapida. Per questo motivo, questi materiali sono attualmente in corso di sperimentazione, con risultati preliminari adeguati promettenti per un’applicazione clinica, come sostituti ossei di condilo mandibolare, sito estremamente critico per gli sforzi meccanici presenti. È stata dimostrata la possibilità di utilizzare lo scaffold ceramico biomimetico con la duplice funzione di sostituto osseo bioattivo e sistema di rilascio in situ di ioni specifici e di antibiotico, in cui la cinetica di rilascio risulta fortemente dipendente dalle caratteristiche chimico-fisico morfologiche del dispositivo (solubilità, area di superficie specifica,…). Per simulare sempre di più la composizione del tessuto osseo e per indurre specifiche proprietà funzionali, è stata utilizzata la gelatina come fase proteica con cui rivestire/impregnare dispositivi porosi 3D a base di apatite, con cui miscelare direttamente la fase inorganica calcio-fosfatica e quindi realizzare materiali bio-ibridi in cui le due fasi contenenti siano intimamente interagenti. Inoltre al fine di ridurre gli innumerevoli problemi legati alle infezioni ossee alcuni dei materiali sviluppati sono stati quindi caricati con antibiotico e sono state valutate le cinetiche di rilascio. In questa maniera, nel sito dell’impianto sono state associate le funzioni di trasporto e di rilascio di farmaco, alla funzione di sostituzione/rigenerazione ossee. La sperimentazione con la gelatina ha messo in luce proprietà posatamente sfruttabili della stessa. Oltre a conferire allo scaffold un implementata mimesi composizionale del tessuto osseo, ha infatti consentito di aumentare le proprietà meccaniche, sia come resistenza a compressione che deformazione. Unitamente a quanto sopra, la gelatina ha consentito di modulare la funzionalità di dispensatore di farmaco; mediante controllo della cinetica di rilascio, tramite processi di reticolazione più o meno spinti.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In questa tesi verrà descritto il lavoro di progettazione mirato a studiare una nuova tecnologia costruttiva, basata su pannelli in legno lamellare a strati incrociati (Xlam). In particolare verranno progettati moduli abitativi a comportamento tubolare, componibili per realizzare alloggi e complessi abitativi per famiglie a basso reddito. Infine la tecnologia elaborata verrà applicata ad un'area di progetto localizzata nel quartiere Pilastro a Bologna.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La tesi indaga i temi fondamentali, i limiti e le implicazioni della relazione tra le filosofie di Nietzsche e di Spinoza, sia analizzando storiograficamente il ruolo di Spinoza nei testi di Nietzsche (I parte), sia sviluppando una proposta teoretica a partire dai due autori (II, III e IV parte). L’indagine storiografica procede presentando le riflessioni che Nietzsche dedica a Spinoza secondo un criterio tematico-cronologico. Durante l’esposizione sono discusse le fonti utilizzate da Nietzsche e il significato che le menzioni di Spinoza ricoprono nell’economia generale del pensiero nietzschiano. La seconda parte della ricerca indaga le ragioni per le quali la connessione tra Nietzsche e Spinoza può risultare teoreticamente convincente, in particolare a partire dall’istanza propriamente critica della loro riflessione, che si manifesta come domanda “empia” sul mondo delle credenze condivise. In particolare, è la nozione di “causa” a fungere da rifugio per la credenza metafisica nel soggetto anche all’interno dell’universo deterministico in cui opera la scienza. Come va invece pensato un determinismo che sia filosoficamente coerente? Le ultime due parti di questa ricerca sviluppano alcune ipotesi in proposito, considerando singolarmente le filosofie di Spinoza e di Nietzsche.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Il plasma, quarto stato della materia, rappresenta un gas ionizzato in cui ioni ed elettroni si muovono a diverse energie sotto l’azione di un campo elettro-magnetico applicato dall’esterno. I plasmi si dividono in plasmi di equilibrio e di non equilibrio termodinamico, quest’ultimi sono caratterizzati da un’alta temperatura elettronica (oltre 10000 K) e da una bassa temperatura traslazionale degli ioni e delle specie neutre (300-1000 K). I plasmi di non equilibrio trovano largo impiego nella microelettronica, nei processi di polimerizzazione, nell’industria biomedicale e del packaging, consentendo di effettuare trattamenti di sterilizzazione e attivazione superficiale. Il lavoro di tesi è incentrato sui processi di funzionalizzazione e polimerizzazione superficiale con l’obbiettivo di realizzare e caratterizzare sorgenti di plasma di non equilibrio a pressione atmosferica operanti in ambiente controllato. È stata realizzata una sorgente plasma operante a pressione atmosferica e in ambiente controllato per realizzare trattamenti di modifica superficiale e di polimerizzazione su substrati polimerici. L’efficacia e l’omogeneità dei trattamenti eseguiti sono stati valutati tramite misura dell’angolo di contatto. La caratterizzazione elettrica ha consentito di determinare i valori di densità di energia superficiale trasferita sui substrati al variare delle condizioni operative. Lo strato depositato durante il processo di polimerizzazione è stato analizzato qualitativamente tramite l’analisi chimica in spettroscopia infrarossa. L’analisi delle prove di funzionalizzazione dimostra l’uniformità dei processi plasma eseguiti; inoltre i valori dell’angolo di contatto misurati in seguito ai trattamenti risultano confrontabili con la letteratura esistente. Lo studio dei substrati trattati in atmosfera satura d’azoto ha rivelato una concentrazione superficiale di azoto pari al 3% attribuibile alla presenza di ammine, ammine protonate e gruppi ammidici; ciò conferma la bontà della soluzione realizzata e dei protocolli operativi adottati per la funzionalizzazione delle superfici. L’analisi spettroscopica dei trattamenti di polimerizzazione, ha fornito spettri IR confrontabili con la letteratura esistente indicando una buona qualità del polimero depositato (PEG). I valori misurati durante la caratterizzazione elettrica della sorgente realizzata risulteranno fondamentali in futuro per l’ottimizzazione del dispositivo. I dati raccolti infatti, determineranno le linee guida per il tailoring dei trattamenti plasma e per lo sviluppo della sorgente. Il presente lavoro di tesi, pur prendendo in esame una piccola parte delle applicazioni industriali dei plasmi non termici, conferma quanto queste siano pervasive nei comuni processi industriali evidenziandone le potenzialità e i numerosi campi d’applicazione. La tecnologia plasma è destinata ad essere imprescindibile per la ricerca di soluzioni innovative ai limiti dei processi tradizionali.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Internet of Energy è un progetto di ricerca europeo nato con lo scopo di sviluppare infrastrutture hardware e software volte a introdurre la mobilità elettrica veicolare nei moderni contesti urbani. È stato oggetto di tesi di Federco Montori il quale ha sviluppato un primo prototipo di piattaforma comprendente un servizio cittadino di gestione delle ricariche, un’applicazione mobile che vi interagiva e infine un simulatore necessario al test della piattaforma. Nel corso di oltre un anno di sviluppo ho riscritto tutte le componenti software che costituivano il progetto ampliandone notevolmente le funzionalità, rendendole modulari e ben ingegnerizzate. Del progetto originario è stata ereditata l’architettura ontology-based basata sullo scambio di informazioni tramite il Semantic Information Broker (SIB). Il mio contributo è iniziato nel 2012 con la riscrittura dell’applicazione mobile che inizialmente funzionava solo in presenza del simulatore. Attualmente permette di interfacciarsi a un veicolo reale tramite la tecnologia Blue&Me di Fiat. Questo approccio è stato reso possibile grazie all’opportunità offerta dal Centro Ricerche Fiat, che ci ha permesso di testare presso loro sede l’applicazione mobile su un prototipo di Daily elettrico. Ho inoltre introdotto lo studio del profilo altimetrico e consumo energetico che separa il possessore dello smartphone da una determinata destinazione. Nel 2013 ho deciso di riscrivere il Servizio Cittadino per renderlo conforme a un nuovo protocollo di prenotazione. Ho colto l’occasione per rendere il servizio altamente performante grazie a tecniche quali: pool di thread, pool di oggetti e caching. Infine a cavallo tra il 2013 e il 2014 ho riscritto il simulatore al fine di ottimizzare il consumo di risorse, velocizzare il setup delle simulazioni e sopratutto renderlo più conforme alla realtà. Questo lavoro ha permesso di avere una piattaforma software che permette di valutare realisticamente gli scenari di mobilità elettrica veicolare.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’analisi compiuta in questa tesi di laurea è motivata da una passione che fin dall’infanzia ho coltivato: quella per il Giappone. Con il passare degli anni gli aspetti del Giappone che mi hanno stimolato e incuriosito sono evoluti, come la volontà di approfondire una conoscenza sempre più completa di questo popolo e della loro cultura – facendo anche tesoro dell’esperienza di viaggio fatta nel 2012, visitando Tokyo e Kyoto.
 Notai nel mio breve soggiorno a Tokyo un qualcosa che qua non trovavo negli edifici: un eterno conflitto con lo spazio. Sono rimasto sorpreso dagli spazi angusti, dalle dimensioni lillipuziane delle case, spesso caratterizzate da standard qualitativi intollerabili per un occidentale, ma allo stesso tempo mi ha impressionato la tecnologia disponibile per la vita di tutti i giorni, che permetteva di sopperire a queste mancanze o deficit. Kyoto mi ha invece colpito per la tradizione, per la storia, per le sue architetture lignee – una città capace di fare convivere in armonia il passato col presente nel pieno rispetto della natura. I suoi colori, i suoi paesaggi bucolici non li dimenticherò facilmente... Il percorso di analisi che si svolgerà in questa sede includerà, partendo dalla tradizione fino ad arrivare al presente, le tematiche di cui si è appena parlato: casa giapponese, misura, standard, spazio. Si è partiti dall’analisi descrittiva e dalle splendide illustrazioni del zoologo americano Edward Morse, analizzando il suo volume “Japanese Homes and Their Surroundings” pubblicato alla fine del 1800 e divenuto un libro di culto per gli architetti moderni, per poi arricchire l’analisi con le tantissime informazioni e tavole tecniche fornite da Heinrich Engel con il libro “The Japanese House – A tradition for contemporary architecture”, un testo veramente formativo e altamente specifico per l’architettura vernacolare giapponese. Si arricchisce la discussione con Paper e pubblicazioni di professori giapponesi, racconti di narrativa e guide sul Giappone, per poi concludere l’analisi con libri di architettura moderna giapponese come il volume di Naomi Pollock “Modern Japanese House” e riviste quali JA (Japan Architects) per fornire esempi contemporanei di costruzioni residenziali odierne.


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Lo scopo del presente lavoro è gettare la massima luce possibile (in base ai documenti disponibili), sia dal punto di vista teorico che storico, su due questioni che la ricerca schopenhaueriana ha già da tempo considerato come decisive: la frequenza, da parte del giovanissimo Schopenhauer, delle lezioni di Fichte e la genesi, lo sviluppo e infine l’abbandono del filosofema della «coscienza migliore». Il lavoro è perciò diviso in due sezioni: «Analisi degli appunti» e «La coscienza migliore». Schopenhauer frequentò a Berlino, nel semestre invernale 1811-12, quattro lezioni di Fichte «Sullo studio della filosofia», e poi i corsi «Sui fatti della coscienza» e «Sulla dottrina della scienza». Nei suoi appunti concernenti queste lezioni, Schopenhauer ha registrato non soltanto l’esposizione di Fichte, ma anche le sue osservazioni e obbiezioni. L’analisi di questi appunti, condotta nella prima parte, consente perciò di documentare dettagliatamente il primo incontro del giovane Schopenhauer con la filosofia di Fichte e di indicare i punti specifici dell’esposizione di quest’ultimo che possono aver costituito un riferimento teorico significativo per il successivo sviluppo della filosofia schopenhaueriana. La seconda parte del lavoro è dedicata all’analisi dei Manoscritti giovanili di Schopenhauer, redatti dal 1804 al 1814, e soprattutto al filosofema della «coscienza migliore». Il tema della prima parte e il tema della seconda parte del lavoro sono in stretta relazione, in quanto, come è dimostrato nel corso dell’indagine, l’ascolto dei corsi di Fichte mosse Schopenhauer a elaborare i principi fondamentali del filosofema in questione. Quest’ultimo costituisce il primo tentativo di sistema di Schopenhauer. Attraverso l’analisi di tale filosofema si muove perciò un’indagine sistematica sui primissimi esperimenti teorici del giovane Schopenhauer, mettendo in evidenza il percorso e gli influssi attraverso i quali il filosofo tedesco è gradualmente giunto alle sue posizioni definitive concernenti il sistema della volontà di vivere. Nel lavoro si dimostra che la preferenza di Schopenhauer per il sistema della volontà di vivere rispetto al tentativo di sistema della coscienza migliore è necessitato da un’esigenza di coerenza verso quelle che Schopenhauer stesso considera le istanze irrinunciabili del criticismo kantiano. Al tempo stesso, si mostra come il filosofema della «coscienza migliore» abbia costituto, nelle riflessioni del giovane Schopenhauer, un importantissimo “esperimento teorico”, il cui fallimento fornì l’impulso fondamentale per l’elaborazione del sistema della volontà di vivere.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Questo progetto ha confrontato gli effetti indotti da diversi tipi di radiazioni, diversa intensità delle dosi, diverso rateo di dose su sistemi cellulari differenti. In particolare sono stati seguiti due studi differenti, finalizzati all’indagine degli effetti e dei meccanismi indotti da trattamenti radioterapici su cellule in coltura. Nel primo studio -EXCALIBUR- sono stati investigati i meccanismi di induzione e trasmissione del danno a basse dosi di radiazioni, in funzione della qualità della radiazione (raggi gamma e protoni) e della dose. Cellule di glioblastoma umano (T98G) sono state irraggiate con raggi gamma e protoni a due diverse dosi (0,25 Gy e 2 Gy); in questo studio è stata valutata e analizzata la variazione di espressione genica rilevata utilizzando la tecnologia dei microarray. Per mezzo dell’analisi statistica, con due software diversi, si è osservato come nelle cellule irraggiate si attivino i geni legati alla senescenza cellulare; questo risultato è significativo, visto che potrebbe rappresentare una prospettiva terapeutica interessante per molte neoplasie. Il secondo studio –Plasma Focus- ha lo scopo di ampliare le applicazioni nel settore medicale di una sorgente radiante che produce raggi X ad altissimo rateo di dose (plasma focus). In questo studio, l’attenzione è stata posta sulla preparazione dei campioni biologici per l’irraggiamento. Cellule di adenocarcinoma mammario (MCF7) sono state coltivate in laboratorio e posizionate all’interno di appositi portacampioni pronte per essere irraggiate con raggi X ad alto e a basso rateo di dose. Per mezzo della microscopia ottica e della citometria a flusso in fluorescenza, si è osservato come un rateo di dose elevato provochi danni cellulari superiori. L’analisi quantitativa ha mostrato che, nelle cellule trattate con il plasma focus, il 18% risulti danneggiato rispetto al 7% delle cellule di controllo; con i raggi X convenzionali risulta danneggiato l'8% di cellule, rispetto al 3% delle cellule di controllo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Le infezioni ospedaliere (o nosocomiali) sono le complicanze più frequenti e gravi nell’ambito dell’assistenza sanitaria, e costituiscono una delle maggiori cause di morbilità e mortalità. Tale denominazione comprende un insieme piuttosto eterogeneo di condizioni diverse sotto il profilo sia microbiologico che epidemiologico, ma accomunate dall’elevato impatto sulla salute dei pazienti e sui costi sanitari. Molti fattori contribuiscono a condizionare la frequenza delle infezioni nosocomiali, tra cui la compromissione delle difese immunitarie dei pazienti, l’invasività delle nuove tecnologie e pratiche sanitarie in campo diagnostico/terapeutico, l’esecuzione di procedure assistenziali nel non rispetto delle norme igieniche da parte degli operatori sanitari, l’utilizzo estensivo degli antibiotici con conseguente insorgenza di ceppi batterici resistenti; per ultimo, non a caso, l’inquinamento dell’ambiente ospedaliero. Ad oggi, infatti, la contaminazione microbica dell’ambiente (aria e superfici) è ritenuto un fattore di rischio secondario, rispetto alla correttezza dei comportamenti degli operatori (rispetto delle procedure di asepsi, delle precauzioni di isolamento, adeguate tecniche operatorie, ecc), per la quale si sono concentrati gran parte degli sforzi in materia di prevenzione. Ciò probabilmente è anche dovuto al fatto che finora nessuna tecnologia è stata in grado di intervenire in maniera adeguata sulla decontaminazione microbica di aria e superfici. I dati allarmanti sulle infezioni ospedaliere a livello mondiale sono la prova che le misure adottate finora per contrastare il problema non sono sufficienti; inoltre il monito lanciato dall’Organizzazione Mondiale della Sanità riguardo alla progressiva perdita d’efficacia delle terapie antibiotiche impone di trovare al più presto nuove armi per la lotta alle infezioni. Una via sperimentale e innovativa, volta alla riduzione della frequenza d’infezioni ospedaliere, potrebbe essere proprio il disinquinamento dell’aria indoor negli ambienti ospedalieri e delle superfici a contatto diretto con il paziente, ottenibile per mezzo di una tecnologia ad hoc: laTecnologia Nano-Safe Koala®” (brevettata da D.A.TECH., azienda specializzata nel disinquinamento dell’aria indoor). Per l’applicazione di tale tecnologia in ambito ospedaliero è stata progettata una "cappa disinquinante", pensata per essere installata al di sopra del posto letto, al fine di fornire al paziente aria incontaminata e di sanificare le superfici a contatto con esso. Una volta realizzato il prototipo, sono state condotte delle sperimentazioni per testarne l’efficacia e l’efficienza, per mezzo di strumenti specifici per quanto riguarda l’analisi dell’aria, e con test biologici per quanto riguarda l’analisi delle superfici.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Questa tesi ha lo scopo di analizzare e approfondire tutte le caratteristiche del nuovo standard delle comunicazioni a radiofrequenza: NFC. Per meglio comprendere l'argomento trattato ho suddiviso la tesi in 5 capitoli: Nel primo capitolo si effettuerà una panoramica sul mondo delle tecnologie a radiofrequenza: parleremo della tecnologia RFID, di come è nata e di come si è sviluppata dagli anni 60 ad oggi, di come veniva utilizzata un tempo e di come oggi viene usata. Ulteriore tecnologia a radiofrequenza presa in considerazione in questo capitolo è la tecnologia Bluetooth, di cui conosceremo le origini e l’evoluzione che ha subito nel corso degli anni. Nel secondo capitolo si affronterà l’argomento principale di questa tesi ossia la tecnologia NFC. Si analizzerà nel dettaglio, capiremo come è nata e come si è evoluta, vedremo come funziona nello specifico, che tipo di componenti usa e vedremo quali sono stati gli elementi cardine che hanno portato a questa rapida diffusione. Nel terzo capitolo si prenderà in esame un prototipo di applicazione per smartphone Android per meglio capire come effettivamente comunicano tra loro hardware e software. Il progetto prende il nome di WeMoNFC e permetterà di attivare e/o disattivare un particolare interruttore tramite l’accostamento di un tag NFC al telefono. Come richiama il nome, il progetto utilizzerà due componenti principali: il primo, ovviamente, è il modulo NFC inserito di fabbrica all’interno dello smartphone, il secondo invece è un dispositivo dell’azienda americana Belkin: il WeMo Switch. Nel quarto capitolo infine si trarranno le dovute conclusioni su questo argomento, si osserveranno i dati di mercato e si cercherà di ricavare una possibile ipotesi su come questa tecnologia davvero alla portata di tutti diverrà, più o meno, importante in un futuro prossimo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’obiettivo principale di questo elaborato è di mostrare in un primo momento i concetti fondamentali che stanno alla base del paradigma ad agenti. Una volta introdotti, essi verranno collocati in un determinato ambiente di programmazione attraverso una piattaforma specifica chiamata Jason. Come sarà facile capire dalla lettura di questa trattazione, un sistema ad agenti è costituito dagli agenti stessi e dall’ambiente in cui sono situati. L’ambiente risulta quindi un altro tassello fondamentale ed è stato introdotto allo scopo un nuovo paradigma per la programmazione di ambienti chiamato Agent & Artifact. Nello specifico, verrà ampiamente descritto il framework di riferimento di tale paradigma: CArtAgO. Dopo aver illustrato i concetti e gli strumenti per poter agilmente programmare e progettare sistemi ad agenti, verrà infine mostrato un esempio di applicazione di tale tecnologia attraverso un case study. Il progetto del sistema in questione riguarda un reale caso aziendale e integra la tecnologia RFID con quella ad agenti per fornire la soluzione ad un problema noto come quello del controllo periodico delle scorte.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Siamo ormai abituati a vivere in un mondo pieno di dispositivi intelligenti ed un sistema domotico deve essere facilmente integrato con essi. L'obbiettivo di questa tesi è di estendere con il concetto di transducer il prototipo di Home Manager, applicazione per la gestione di una casa intelligente che sfrutta la tecnologia TuCSoN. I vantaggi di questa scelta sono molteplici: permettendo al media di coordinazione di gestire le interazioni fra gli agenti e l'ambiente, si separano i problemi implementativi da quelli coordinativi, guadagnando anche un sistema più facilmente ispezionabile, con componenti sostituibili e manutenibili. Dopo un'introduzione alla domotica, all'architettura Butlers e all'infrastruttura TuCSoN, pilastri su cui è basato Home Manager, si passerà ad una fase di analisi dello stato attuale del prototipo, per comprendere dove e perché andare a introdurre il concetto di transducer. Seguiranno poi le fasi di progettazione e, infine, di implementazione di questa tecnologia in Home Manager.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La tecnologia della diffusion tensor imaging (DTI) è una tecnica non invasiva, che permette di effettuare una caratterizzazione in vivo di diversi tessuti, è una tecnica consolidata in ambito neurologico e rappresenta una metodica ancora da esplorare ma molto promettente in ambito renale. Questo lavoro di tesi si concentra in primo luogo sulla differenziazione di diverse strutture renali quali, la corteccia e la medulla del rene sano, le cisti del rene affetto dalla malattia policistica autosomica dominante e i carcinomi. La seconda parte del lavoro si concentra sui reni policistici, in quanto è una delle malattie genetiche più comuni e la principale causa di insufficienza renale e non è, ad oggi, stata adeguatamente affrontata in questo genere di studi. Il secondo obiettivo è, quindi, di valutare se la tecnica dell’imaging di diffusione potrebbe essere utile per fornire informazioni sullo stato della malattia e sul grado si avanzamento di essa. Sono stati implementati in Matlab gli algoritmi per la costruzione del tensore di diffusione a partire dalle immagini DWI e per la selezione delle ROI sulle varie regioni di interesse. I risultati ottenuti per l’analisi dei reni policistici dimostrano che per gli intervalli temporali considerati non è possibile correlare il valore di diffusività media del parenchima e lo stadio di avanzamento della malattia, stabilito dai valori di eGFR. Per quanto riguarda i risultati ottenuti dalla differenziazione delle diverse strutture renali la tecnica della diffusion imaging risulta essere potenzialmente in grado di differenziare i diversi tessuti renali e di valutare separatamente la funzionalità dei reni.