965 resultados para Sistemi Multi-Agente, Sistemi ad Eventi, MAS, EBS, Kafka, JADE, TuCSoN


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi si focalizza sulle possibili tecnologie per realizzare comunicazioni opportunistiche fra dispositivi mobile ed embedded, con l'obiettivo di integrarle nel contesto di sistemi a larga scala situati, e con particolare riferimento al prototipo denominato "Magic Carpet". Vengono considerate in particolare le tecnologie WiFi ad-hoc e Bluetooth Low Energy su Android e Raspberry Pi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’imaging ad ultrasuoni è una tecnica di indagine utilizzata comunemente per molte applicazioni diagnostiche e terapeutiche. La tecnica ha numerosi vantaggi: non è invasiva, fornisce immagini in tempo reale e l’equipaggiamento necessario è facilmente trasportabile. Le immagini ottenute con questa tecnica hanno tuttavia basso rapporto segnale rumore a causa del basso contrasto e del rumore caratteristico delle immagini ad ultrasuoni, detto speckle noise. Una corretta segmentazione delle strutture anatomiche nelle immagini ad ultrasuoni è di fondamentale importanza in molte applicazioni mediche . Nella pratica clinica l’identificazione delle strutture anatomiche è in molti casi ancora ottenuta tramite tracciamento manuale dei contorni. Questo processo richiede molto tempo e produce risultati scarsamente riproducibili e legati all’esperienza del clinico che effettua l’operazione. In ambito cardiaco l’indagine ecocardiografica è alla base dello studio della morfologia e della funzione del miocardio. I sistemi ecocardiografici in grado di acquisire in tempo reale un dato volumetrico, da pochi anni disponibili per le applicazioni cliniche, hanno dimostrato la loro superiorità rispetto all’ecocardiografia bidimensionale e vengono considerati dalla comunità medica e scientifica, la tecnica di acquisizione che nel futuro prossimo sostituirà la risonanza magnetica cardiaca. Al fine di sfruttare appieno l’informazione volumetrica contenuta in questi dati, negli ultimi anni sono stati sviluppati numerosi metodi di segmentazione automatici o semiautomatici tesi alla valutazione della volumetria del ventricolo sinistro. La presente tesi descrive il progetto, lo sviluppo e la validazione di un metodo di segmentazione ventricolare quasi automatico 3D, ottenuto integrando la teoria dei modelli level-set e la teoria del segnale monogenico. Questo approccio permette di superare i limiti dovuti alla scarsa qualità delle immagini grazie alla sostituzione dell’informazione di intensità con l’informazione di fase, che contiene tutta l’informazione strutturale del segnale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il processo di compostaggio è il metodo più antico ed al tempo stesso innovativo di trasformazione dei rifiuti. La trasformazione in impianti di compostaggio industriale ricrea lo stesso processo semplice ma in scala maggiore processando molte tonnellate/anno di rifiuto con particolare riguardo a quello proveniente da raccolta differenziata. Il presente elaborato, oltre ad illustrare le nuove tecnologie di produzione nelle realtà locali della zona Romagnola, ha inteso indagare un aspetto alternativo ed innovativo di valutazione del compost. A supporto di quanto già previsto alla specifica normativa di settore e nell'ottica dell'ottimizzazione del processo, è stata valutata la possibilità di uso della tecnica analitica di microestrazione in fase solida (SPME) e della tecnica strumentale con naso elettronico. Si è inteso verificare anche come l'utilizzo di carbone vegetale, aggiunto alla fase di maturazione, possa apportare un contributo significativo nel controllo delle emissioni odorigene, problematica diffusa nelle aree limitrofe ad impianti di compostaggio. L'utilizzo delle tecniche di estrazione in fase solida (SPME) ha dimostrato che durante il processo le componenti odorigene tendono a ridursi notevolmente modificandosi in modo apprezzabile e valutabile mediante analisi GC-MS. L'aggiunta di carbone vegetale alla fase di maturazione contribuisce alla riduzione delle emissioni odorigene. I risultati ottenuti evidenziano come l'utilizzo dei sistemi proposti possa portare ad un'economicità qualora si riscontrassero tempi di maturazione variabili per le tipologie di materiale trattato, riducendo così i tempi di permanenza nei tunnel di maturazione e come le tecniche SPME e naso elettronico possano essere accoppiate per ottenere risultati complementari così da costruire un'informazione complessiva completa. Possibili sviluppi dello studio potrebbero essere improntati alla verifica puntuale del grado di maturazione in relazione alla tipologia del materiale in ingresso ed alla stagionalità nonché all'utilizzo di tali tecniche ad altre matrici e nell'ambito dell'individuazione della presenza di composti indesiderati in matrici ambientali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La nostra tesi propone un progetto di riqualificazione funzionale ed energetica di una porzione dell’area dismessa delle Ex Officine Reggiane a Reggio Emilia che comprende uno spazio scoperto di circa 42.500 m2 e un fabbricato, nel quale proponiamo di realizzare il museo delle officine, spazi per esposizioni temporanee e il nuovo polo archivistico di Reggio Emilia. Le Officine Meccaniche Reggiane sono state un polo industriale di particolare rilevanza a livello nazionale ed internazionale, diventando negli anni ’40 la quarta potenza industriale italiana dopo Fiat,Ansaldo e Breda. Dismesse dal 2009, si presentano oggi come un’area abbandonata di ben 260.000 m2 nella quale convivono la memoria e la speranza futura di rilancio della città di Reggio Emilia nel panorama europeo. Sulle tracce dei progetti già messi in atto dall’Amministrazione comunale, abbiamo fornito una proposta progettuale che consideri le vocazioni funzionali dell’area e le strategie energetiche possibili per rendere il progetto sostenibile sia dal punto di vista ambientale che dal punto di vista economico. Il lavoro è partito dalla definizione di un quadro conoscitivo dell’area attraverso una prima fase di analisi a livello territoriale e microclimatico servendosi per queste ultime del software di simulazione in regime dinamico ENVI-met. Questa prima fase si è conclusa con l’elaborazione di un masterplan, in seguito al quale ci siamo soffermate sul progetto di riqualificazione del capannone 15 e del grande spazio vuoto antistante ad esso. L’intervento sul costruito si può riassumere in tre parole chiave: conservare, aggiornare, integrare. Abbiamo scelto infatti di mantenere la robusta e ritmata struttura in acciaio, ripensare l’involucro edilizio in termini di una maggiore efficienza energetica e confinare i locali climatizzati in volumi autoportanti, garantendo, nell’atrio, condizioni di comfort termico accettabili unicamente attraverso strategie energetiche passive. Per verificare l’effettiva opportunità della soluzione ipotizzata ci siamo servite del software di simulazione fluidodinamica IES VE, il quale, attraverso la simulazione oraria del cambiamento dei parametri ambientali più rilevanti e degli indicatori di benessere (PMV, Comfort index, PPD..), ha confermato le nostre aspettative verificando che non è necessario intervenire con l’introduzione di sistemi di climatizzazione convenzionale. Per quanto riguarda i padiglioni entro i quali sono pensate le attività di servizio e supporto al museo e l’archivio, è stata verificata la soddisfacente prestazione energetica raggiunta attraverso l’utilizzo del software Termolog Epix5, il quale ha attestato che essi rientrano nella classe A con un consumo energetico di 4,55 kWh/m3annuo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesi analizza le principali caratteristiche di due tipi di traduzione: la traduzione audiovisiva, e in particolare il sottotitolaggio, e la traduzione automatica (TA). Obiettivo della nostra ricerca è stabilire quali risultati è possibile aspettarsi dall’impiego di sistemi di traduzione automatica appositamente sviluppati, nella creazione di sottotitoli di qualità professionale. Tale metodo avrebbe il potenziale vantaggio di velocizzare il processo traduttivo, riducendo in parte la pressione cui i sottotitolatori sono sottoposti, dovendo realizzare molte traduzioni in tempi troppo brevi, spesso a scapito della qualità finale del prodotto. Nel presente lavoro, il Capitolo 1 delinea le tappe principali della nascita e dello sviluppo della traduzione automatica, fino ad arrivare ai sistemi di TA più moderni. Nel Capitolo 2 vengono presentati i tipi principali di sistemi di traduzione automatica, con riferimento alle loro potenzialità e alle loro debolezze, soprattutto per quanto riguarda il loro impiego nel settore multimediale. Il Capitolo 3 riguarda la storia del sottotitolaggio, e le condizioni che hanno portato allo sviluppo e alla diffusione delle diverse modalità di traduzione audiovisiva, di cui il sottotitolaggio è una variante. Nel Capitolo 4 descriveremo le fasi principali di questo processo traduttivo, con particolare enfasi sull’importanza del contesto di arrivo e delle esigenze e aspettative dei futuri fruitori del testo finale. I Capitoli 5 e 6 presentano il lavoro di ricerca “sul campo”, svolto per raccogliere il parere di sottotitolatori professionisti e fansubber, attivi in Italia e all’estero, riguardo la possibilità di usare la TA nel loro lavoro. Infine, il capitolo conclusivo fornisce un commento sui risultati ottenuti, e sulle prospettive future riguardo la possibile apertura da parte del sottotitolaggio verso questa nuova tecnologia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni i dati, la loro gestione e gli strumenti per la loro analisi hanno subito una trasformazione. Si è visto un notevole aumento dei dati raccolti dagli utenti, che si aggira tra il 40 e il 60 percento annuo, grazie ad applicazioni web, sensori, ecc.. Ciò ha fatto nascere il termine Big Data, con il quale ci si riferisce a dataset talmente grandi che non sono gestibili da sistemi tradizionali, come DBMS relazionali in esecuzione su una singola macchina. Infatti, quando la dimensione di un dataset supera pochi terabyte, si è obbligati ad utilizzare un sistema distribuito, in cui i dati sono partizionati su più macchine. Per gestire i Big Data sono state create tecnologie che riescono ad usare la potenza computazionale e la capacità di memorizzazione di un cluster, con un incremento prestazionale proporzionale al numero di macchine presenti sullo stesso. Il più utilizzato di questi sistemi è Hadoop, che offre un sistema per la memorizzazione e l’analisi distribuita dei dati. Grazie alla ridondanza dei dati ed a sofisticati algoritmi, Hadoop riesce a funzionare anche in caso di fallimento di uno o più macchine del cluster, in modo trasparente all’utente. Su Hadoop si possono eseguire diverse applicazioni, tra cui MapReduce, Hive e Apache Spark. É su quest’ultima applicazione, nata per il data processing, che è maggiormente incentrato il progetto di tesi. Un modulo di Spark, chiamato Spark SQL, verrà posto in confronto ad Hive nella velocità e nella flessibilità nell’eseguire interrogazioni su database memorizzati sul filesystem distribuito di Hadoop.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi si pone come obiettivo quello di esplorare la possibilità di evolvere automi cellulari utilizzando algoritmi genetici al fine di trovare delle regole evolutive che permettano di generare un'immagine binaria qualunque a partire da una configurazione iniziale fissata.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La capacità della spettroscopia di assorbimento di riuscire a determinare la struttura locale di campioni di ogni tipo e concentrazione, dagli elementi puri ai più moderni materiali nanostrutturati, rende lo studio dei meccanismi di incorporazione di droganti in matrici di semiconduttori il campo che meglio ne esprime tutto il potenziale. Inoltre la possibilità di ottenere informazioni sulla struttura locale di un particolare elemento in traccia posto in sistemi senza ordine a lungo raggio risulta, ovviamente, nello studio dei semiconduttori di grandissimo interesse. Tuttavia, la complessità di determinate strutture, generate dalla incorporazione di elementi eterovalenti che ne modificano la simmetria, può far si che all’analisi sperimentale si debbano affiancare dei metodi avanzati ab-initio. Questi approcci garantiscono, attraverso la simulazione o di strutture atomiche o dello stesso spettro XAS, di ottenere una più completa e precisa interpretazione dei dati sperimentali. Nella fase preliminare di questo elaborato si illustrerà la fenomenologia della spettroscopia di assorbimento e i fondamenti teorici che stanno alla base dell’analisi della struttura fine di soglia. Si introdurranno contemporaneamente le tecniche sperimentali con cui si realizzano le misure di spettri di assorbimento su una beamline che sfrutta sorgente di radiazione di sincrotrone facendo riferimento agli strumenti montati sulla linea LISA (o BM08) presso l’European Synchrotron Radiation Facility di Grenoble su cui si sono realizzati gli esperimenti di questo lavoro. Successivamente si realizzerà una rassegna di alcuni esperimenti simbolo della analisi della struttura locale di droganti in semiconduttori mediante XAFS, andando ad approfondire i metodi sperimentali associati. Nella parte principale della tesi verranno descritti alcuni tipi di analisi avanzate effettuate su Colloidal Quantum Dots a base di solfuro di piombo drogati con antimonio. Tali sistemi, particolarmente interessanti per potenziali applicazioni in campo optoelettrico, sono stati analizzati mediante misure di fluorescenza ottenute sulla beamline LISA. La fase di analisi ha visto la progettazione di una suite di programmi in C++ per realizzare simulazioni di uno spettro XAS teorico completo basato su strutture ottenute (anche esse) da metodi ab-initio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi si prefigge l’obiettivo di analizzare alcuni aspetti critici della sicurezza in ambito cloud. In particolare, i problemi legati alla privacy, dai termini di utilizzo alla sicurezza dei dati personali più o meno sensibili. L’aumento esponenziale di dati memorizzati nei sistemi di cloud storage (es. Dropbox, Amazon S3) pone il problema della sensibilità dei dati su un piano tutt'altro che banale, dovuto anche a non ben chiare politiche di utilizzo dei dati, sia in termini di cessione degli stessi a società di terze parti, sia per quanto riguarda le responsabilità legali. Questa tesi cerca di approfondire ed esaminare le mancanze più preoccupanti degli stessi. Oltre ad analizzare le principali criticità e i punti deboli dei servizi cloud, l’obiettivo di questo lavoro sarà quello di fare chiarezza sui passi e le infrastrutture che alcune aziende (es. Amazon) hanno implementato per avvicinarsi all’idea di 'safeness' nel cloud. Infine, l’ultimo obiettivo posto sarà l’individuazione di criteri per la valutazione/misura del grado di fiducia che l’utente può porre in questo contesto, distinguendo diversi criteri per classi di utenti. La tesi è strutturata in 4 capitoli: nel primo sarà effettuata una tassonomia dei problemi presenti nei sistemi cloud. Verranno presentati anche alcuni avvenimenti della storia recente, in cui queste problematiche sono affiorate. Nel secondo capitolo saranno trattate le strategie di 'safeness' adottate da alcune aziende, in ambito cloud. Inoltre, saranno presentate alcune possibili soluzioni, dal punto di vista architetturale. Si vedrà come il ruolo dell'utente sarà di estrema importanza. Il terzo capitolo sarà incentrato sulla ricerca di strumenti e metodi di valutazione che un utente, o gruppo di utenti, può utilizzare nei confronti di questi sistemi. Infine, il quarto capitolo conterrà alcune considerazioni conlusive sul lavoro svolto e sui possibili sviluppi di questa tesi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il crescente utilizzo di sistemi di analisi high-throughput per lo studio dello stato fisiologico e metabolico del corpo, ha evidenziato che una corretta alimentazione e una buona forma fisica siano fattori chiave per la salute. L'aumento dell'età media della popolazione evidenzia l'importanza delle strategie di contrasto delle patologie legate all'invecchiamento. Una dieta sana è il primo mezzo di prevenzione per molte patologie, pertanto capire come il cibo influisce sul corpo umano è di fondamentale importanza. In questo lavoro di tesi abbiamo affrontato la caratterizzazione dei sistemi di imaging radiografico Dual-energy X-ray Absorptiometry (DXA). Dopo aver stabilito una metodologia adatta per l'elaborazione di dati DXA su un gruppo di soggetti sani non obesi, la PCA ha evidenziato alcune proprietà emergenti dall'interpretazione delle componenti principali in termini delle variabili di composizione corporea restituite dalla DXA. Le prime componenti sono associabili ad indici macroscopici di descrizione corporea (come BMI e WHR). Queste componenti sono sorprendentemente stabili al variare dello status dei soggetti in età, sesso e nazionalità. Dati di analisi metabolica, ottenuti tramite Magnetic Resonance Spectroscopy (MRS) su campioni di urina, sono disponibili per circa mille anziani (provenienti da cinque paesi europei) di età compresa tra i 65 ed i 79 anni, non affetti da patologie gravi. I dati di composizione corporea sono altresì presenti per questi soggetti. L'algoritmo di Non-negative Matrix Factorization (NMF) è stato utilizzato per esprimere gli spettri MRS come combinazione di fattori di base interpretabili come singoli metaboliti. I fattori trovati sono stabili, quindi spettri metabolici di soggetti sono composti dallo stesso pattern di metaboliti indipendentemente dalla nazionalità. Attraverso un'analisi a singolo cieco sono stati trovati alti valori di correlazione tra le variabili di composizione corporea e lo stato metabolico dei soggetti. Ciò suggerisce la possibilità di derivare la composizione corporea dei soggetti a partire dal loro stato metabolico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro rientra nella cornice dei progetti volti ad agevolare la traduzione e produzione da parte delle Università italiane di contenuti online e documentazione ufficiale anche in ELF, in modo da renderli più facilmente accessibili a livello internazionale. Uno strumento utile a questo scopo, di cui molte università si stanno dotando, è un supporto terminologico relativo al dominio accademico-istituzionale. Questo elaborato si suddivide in sei capitoli. Il primo capitolo, di introduzione, è seguito dal capitolo 2, che presenta la terminologia come disciplina, offre una descrizione dei concetti della terminologia classica rilevanti per il lavoro, seguita da una panoramica degli strumenti di sistematizzazione della conoscenza utilizzati. Il capitolo 3 introduce il processo europeo di riforma dei sistemi di istruzione superiore, che ha motivato la creazione da parte di diverse università europee di strumenti di gestione della terminologia accademico-istituzionale. Vengono anche illustrate alcune Banche Dati terminologiche reperite presso altre università europee. Segue l’analisi dei progetti avviati dall’Università di Bologna, in particolare della Banca Dati di terminologia riferita alla Didattica e all’Organizzazione dell’Ateneo creata dall’Ufficio Relazioni Internazionali. All’interno del capitolo 4 viene descritto il lavoro di analisi delle fonti utilizzate durante la creazione della Banca Dati. Il capitolo 5 introduce le fonti aggiuntive utilizzate nel processo di revisione e compilazione, ovvero i corpora specialistici di dominio accademico-istituzionale, e descrive il processo di analisi metodologica e le modifiche strutturali implementate sulla Banca Dati originale, per poi illustrare le modalità di ricerca e di compilazione dei campi della Banca Dati. L’ultimo capitolo descrive la Banca Dati finale, riassumendo brevemente i risultati del lavoro svolto e presentando la proposta del metodo di assegnazione della tipologia di scheda terminologica a ciascun termine in base alle sue caratteristiche funzionali come punto di riferimento per la successiva compilazione delle restanti sezioni della Banca Dati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’occhio è l’organo di senso responsabile della visione. Uno strumento ottico il cui principio di funzionamento è paragonabile a quanto avviene in una macchina fotografica. Secondo l’Organizzazione mondiale della sanità (WHO 2010) sulla Terra vivono 285 milioni di persone con handicap visivo grave: 39 milioni sono i ciechi e 246 milioni sono gli ipovedenti. Si evince pertanto la necessità di tecnologie in grado di ripristinare la funzionalità retinica nelle differenti condizioni fisiopatologiche che ne causano la compromissione. In quest’ottica, scopo di questa tesi è stato quello di passare in rassegna le principali tipologie di sistemi tecnologici volti alla diagnosi e alla terapia delle fisiopatologie retiniche. La ricerca di soluzioni bioingegneristiche per il recupero della funzionalità della retina in condizioni fisiopatologiche, coinvolge differenti aree di studio, come la medicina, la biologia, le neuroscienze, l’elettronica, la chimica dei materiali. In particolare, sono stati descritti i principali impianti retinali tra cui l’impianto di tipo epiretinale e subretinale, corticale e del nervo ottico. Tra gli impianti che ad oggi hanno ricevuto la certificazione dell’Unione Europea vi sono il sistema epiretinale Argus II (Second Sight Medical Products) e il dispositivo subretinale Alpha IMS (Retina Implant AG). Lo stato dell’arte delle retine artificiali, basate sulla tecnologia inorganica, trova tuttavia limitazioni legate principalmente a: necessità di un’alimentazione esterna, biocompatibilità a lungo termine, complessità dei processi di fabbricazione, la difficoltà dell’intervento chirurgico, il numero di elettrodi, le dimensioni e la geometria, l’elevata impedenza, la produzione di calore. Approcci bioingegneristici alternativi avanzano nel campo d’indagine della visione artificiale. Fra le prospettive di frontiera, sono attualmente in fase di studio le tecnologie optogenetiche, il cui scopo è la fotoattivazione di neuroni compromessi. Inoltre, vengono annoverate le tecnologie innovative che sfruttano le proprietà meccaniche, optoelettroniche e di biocompatibilità delle molecole di materiali organici polimerici. L’integrazione di funzioni fotoniche nell’elettronica organica offre nuove possibilità al campo dell’optoelettronica, che sfrutta le proprietà ottiche e elettroniche dei semiconduttori organici per la progettazione di dispositivi ed applicazioni optoelettronici nel settore dell’imaging e del rilevamento biomedico. La combinazione di tecnologie di tipo organico ed organico potrebbe aprire in prospettiva la strada alla realizzazione di dispositivi retinici ed impianti di nuova generazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’avvento delle tecniche di imaging volumetrico, quali la CT (Computed Tomography) e la MRI (Magnetic Resonance Investigation), ha portato ad un crescente interesse verso applicazioni di guida chirurgica che utilizzano processi di allineamento delle immagini diagnostiche provenienti da diverse modalità e di tecniche che ne permettono la visualizzazione in sala operatoria, in modo da fornire al chirurgo il maggior numero di informazioni cliniche possibili durante un intervento. Il crescente interesse verso questo tipo di applicazioni è dovuto anche allo sviluppo di dispositivi di imaging intra-operatorio quali archi a C-mobili radiologici, PC ad alte prestazioni e convertitori A/D 3D con precisione clinicamente accettabile. Questi ultimi due hanno conseguentemente portato a sviluppare ed implementare software dedicati alla pianificazione di un intervento chirurgico, permettendo quindi di elaborare digitalmente le immagini diagnostiche e ricostruire un modello che rappresenta l’effettiva anatomia del paziente. Questo processo nel suo complesso ha portato allo sviluppo di quelli che oggi vengono chiamati sistemi di navigazione chirurgica, abbreviati talvolta in IGSS (Imaging-Guided Surgery Systems), sistemi ovvero che permettono di utilizzare immagini pre-operatorie come guida durante la pratica chirurgica, caratterizzando quindi nuovi metodi di approccio alla chirurgia, le IGS (Image-Guided Surgery) appunto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ogni anno si registra un crescente aumento delle persone affette da patologie neurodegenerative come la sclerosi laterale amiotrofica, la sclerosi multipla, la malattia di Parkinson e persone soggette a gravi disabilità motorie dovute ad ictus, paralisi cerebrale o lesioni al midollo spinale. Spesso tali condizioni comportano menomazioni molto invalidanti e permanenti delle vie nervose, deputate al controllo dei muscoli coinvolti nell’esecuzione volontaria delle azioni. Negli ultimi anni, molti gruppi di ricerca si sono interessati allo sviluppo di sistemi in grado di soddisfare le volontà dell’utente. Tali sistemi sono generalmente definiti interfacce neurali e non sono pensati per funzionare autonomamente ma per interagire con il soggetto. Tali tecnologie, note anche come Brain Computer Interface (BCI), consentono una comunicazione diretta tra il cervello ed un’apparecchiatura esterna, basata generalmente sull’elettroencefalografia (EEG), in grado di far comunicare il sistema nervoso centrale con una periferica esterna. Tali strumenti non impiegano le usuali vie efferenti coinvolte nella produzione di azioni quali nervi e muscoli, ma collegano l'attività cerebrale ad un computer che ne registra ed interpreta le variazioni, permettendo quindi di ripristinare in modo alternativo i collegamenti danneggiati e recuperare, almeno in parte, le funzioni perse. I risultati di numerosi studi dimostrano che i sistemi BCI possono consentire alle persone con gravi disabilità motorie di condividere le loro intenzioni con il mondo circostante e provano perciò il ruolo importante che esse sono in grado di svolgere in alcune fasi della loro vita.