921 resultados para Reale Accademia virgiliana di scienze, lettere ed arti.
Resumo:
Il seguente lavoro di tesi verte sulla ricerca-azione formazione triennale “Il Filo di Arianna” realizzata in convenzione tra Associazione Italiana Sindrome X Fragile e Dipartimento Di Scienze dell’Educazione – Università di Bologna, finalizzata alla superamento degli handicap che la X fragile propone. La ricerca ha un fuoco in Pedagogia Speciale e un carattere multidisciplinare e inter istituzionale grazie alla sinergia con l’area neuroriabilitativa (Istituto di Ricovero e Cura a Carattere Scientifico (IRCCS) San Raffaele Pisana di Roma) e l’area della Psicologia Clinica (Ospedale Bambin Gesù di Roma). Il lavoro di tesi descrive il percorso per giungere alle linee guida di intervento scaturite dalla ricerca, per il potenziamento cognitivo ed affettivo di bambini e persone con x fragile nei contesti di casa, scuola e tempo libero.
Resumo:
Numerose evidenze sperimentali hanno dimostrato il contributo delle cellule staminali (SC) di derivazione midollare nei processi di rigenerazione epatica dopo danno tissutale. E’ cresciuto pertanto l’interesse sul loro potenziale impiego in pazienti con cirrosi. Questo studio si proponeva di valutare la fattibilità e la sicurezza della reinfusione intraepatica di cellule staminali midollari autologhe CD133+ in 12 pazienti con insufficienza epatica terminale. Previa mobilizzazione nel sangue periferico mediante somministrazione di granulocyte-colony stimulating factor (G-CSF) alla dose di 7,5 mcg/Kg/b.i.d. e raccolta per leucoaferesi (solo se la concentrazione di CD133 + SC era > 8/μL), le cellule CD133+ altamente purificate sono state reinfuse in arteria epatica a partire da 5x104/Kg fino a 1x106/kg. Nei tre giorni successivi è stato somministrato G-CSF per favorire l’espansione e l’attecchimento delle cellule. Durante la fase della mobilizzazione e quella della reinfusione sono stati eseguiti saggi biologici quali: caratterizzazione fenotipica delle SC circolanti, saggi clonogenici, valutazione della concentrazione sierica del Hepatocyte Growth Factor (HGF), Stromal-Derived Factor-1 (SDF-1) ed il Vascular-Endotelial Growth Factor (VEGF) e caratterizzazione fenotipica delle CD133+SC purificate. Fino ad oggi sono stati reinfusi 12 pazienti. Questi dati preliminari suggeriscono che è possibile mobilizzare e reinfondere un numero considerevole di SC autologhe CD133+ altamente purificate in pazienti con ESLD . Gli studi biologici mostrano che: il numero di progenitori ematopoietici ed endoteliali circolanti è aumentato dopo il trattamento con G–CSF; le SCs CD133+ altamente purificato esprimono marcatori emopoietici ed endoteliali; la concentrazione sierica di HGF, SDF-1, VEGF e la capacità clonogenica di progenitori emopoietici sono aumentati durante la mobilitazione e nelle fasi di reinfusione; il potenziale clonogenico dei progenitori endoteliali mostra espressione variabile.
Resumo:
Lo studio presentato in questa sede concerne applicazioni di saldatura LASER caratterizzate da aspetti di non-convenzionalità ed è costituito da tre filoni principali. Nel primo ambito di intervento è stata valutata la possibilità di effettuare saldature per fusione, con LASER ad emissione continua, su pannelli Aluminum Foam Sandwich e su tubi riempiti in schiuma di alluminio. Lo studio ha messo in evidenza numerose linee operative riguardanti le problematiche relative alla saldatura delle pelli esterne dei componenti ed ha dimostrato la fattibilità relativa ad un approccio di giunzione LASER integrato (saldatura seguita da un post trattamento termico) per la realizzazione della giunzione completa di particolari tubolari riempiti in schiuma con ripristino della struttura cellulare all’interfaccia di giunzione. Il secondo ambito di intervento è caratterizzato dall’applicazione di una sorgente LASER di bassissima potenza, operante in regime ad impulsi corti, nella saldatura di acciaio ad elevato contenuto di carbonio. Lo studio ha messo in evidenza come questo tipo di sorgente, solitamente applicata per lavorazioni di ablazione e marcatura, possa essere applicata anche alla saldatura di spessori sub-millimetrici. In questa fase è stato messo in evidenza il ruolo dei parametri di lavoro sulla conformazione del giunto ed è stata definita l’area di fattibilità del processo. Lo studio è stato completato investigando la possibilità di applicare un trattamento LASER dopo saldatura per addolcire le eventuali zone indurite. In merito all’ultimo ambito di intervento l’attività di studio si è focalizzata sull’utilizzo di sorgenti ad elevata densità di potenza (60 MW/cm^2) nella saldatura a profonda penetrazione di acciai da costruzione. L’attività sperimentale e di analisi dei risultati è stata condotta mediante tecniche di Design of Experiment per la valutazione del ruolo preciso di tutti i parametri di processo e numerose considerazioni relative alla formazione di cricche a caldo sono state suggerite.
Resumo:
Abbiamo analizzato il comportamento di dispositivi mobili allo scopo di acquisire, ricostruire ed analizzare dati rotazionali da veicoli in movimento. E' possibile ricostruire solo l'urto iniziale di un incidente tra automobili attraverso segnale GPS e accelerometri interni ai veicoli, non è possibile ricostruire l'intera dinamica dell'incidente poiché si perde la rotazione assunta dai mezzi di trasporto dopo l'urto. Per questo scopo abbiamo studiato il comportamento di un dispositivo mobile capace di percepire movimenti rotatori. Abbiamo creato un'architettura software per ricostruire graficamente ed analizzare le rotazioni di una piattaforma Arduino, ovvero un prototipo dotato di accelerometro e giroscopio. Per studiare le rotazioni è stata applicata la matematica dei quaternioni. Abbiamo trovato algoritmi che ricavano le rotazioni attraverso le velocità angolari fornite dalla piattaforma, ed anche attraverso componenti hardware specializzati in rotazioni. Entrambe le soluzioni riescono ad interpretare correttamente la rotazioni del dispositivo nell'intervallo di tempo in cui si può sviluppare un incidente.
Resumo:
Il traffico dei veicoli sulla rete stradale è un fenomeno molto vario e complesso ma cresce sempre di più l'esigenza di monitoraggio e controllo. La difficoltà di studio secondo norme codificate porta a risultati diversi e disomogenei, si è quindi resa necessaria l'esigenza di definire una metodologia standardizzata agli analisti e operatori del settore. Lo scopo principale di questo tipo di analisi è quello di innalzare il livello di sicurezza stradale, creando degli archivi sulla base dei dati registrati dal sistema, per fare ciò vi è stata la necessità di: 1. Istallare dispositivi di rilevamento del flusso veicolare per trovare i punti di maggiore congestione del traffico. 2. Istallare dispositivi per misurare la quantità di agenti atmosferici e acustici inquinanti. Lo studio in questione nasce inoltre da ulteriori esigenze, sia da parte degli addetti alla sicurezza stradale, che dagli stessi utenti/automobilisti per rispondere a determinate esigenze quali: • Regolazione del traffico stradale • Conoscenza globale delle strade • Rilevamento di infrazioni • Assistenza agli utenti • Sicurezza delle infrastrutture stradali (gallerie, passaggi a livello, ecc.) • Manutenzione della strada • Studio e ricerca Oltre ai sistemi che hanno come scopo principale la sicurezza, è nata l'esigenza di progettare sistemi utili agli automobilisti per avere informazioni immediate, aggiornate e per conoscere in tempo reale le condizioni di scorrevolezza delle strade e quindi di risparmiare risorse in termini di tempo e carburante ed aumentare la coordinazione tra i veicoli. Il requisito fondamentale dei sistemi basati su questo tipo di funzionalità è quello di registrare in tempo reale le segnalazioni pervenute e di renderle immediatamente disponibili a tutti gli utenti/utilizzatori del sistema allo scopo di avere informazioni rilevanti riguardanti lo stato del traffico che consentano a questi ultimi di effettuare la scelta ottimale e quindi migliorare la mobilità generale in termini di riduzione della congestione, risparmio di consumi energetici e di conseguenza di emissioni di inquinanti ambientali. I sistemi di questo tipo possono essere definiti adattivi, cioè in grado di modificarsi in base a condizioni esterne al fine di coordinare efficacemente il flusso veicolare. Lo scopo di questi software è sopratutto funzionale, stimando infatti i tempi di percorrenza in determinate strade gli utenti avranno piena consapevolezza delle condizioni di quei segmenti quasi istantaneamente e potranno quindi agire di conseguenza in modo da migliorare i tempi di percorrenza.
Resumo:
In Medicina Veterinaria l'avvelenamento da rodenticidi anticoagulanti è conosciuto e studiato ormai da anni, essendo una delle intossicazioni più comunemente riscontrate nelle specie non target. In letteratura si rinvengono numerose pubblicazioni ma alcuni aspetti sono rimasti ancora inesplorati.Questo studio si propone di valutare il processo infiammatorio, mediante le proteine di fase acuta (APPs), in corso di fenomeni emorragici, prendendo come modello reale un gruppo di soggetti accidentalmente avvelenati da rodenticidi anticoagulanti. I 102 soggetti avvelenati presentano un valore più elevato di proteina C reattiva (CRP)con una mediana di 4.77 mg/dl statisticamente significativo rispetto alla mediana delle due popolazioni di controllo di pari entità numerica create con cross match di sesso, razza ed età; rispettivamente 0.02 mg/dl dei soggetti sani e 0.37 mg/dl dei soggetti malati di altre patologie. Inoltre all'interno del gruppo dei soggetti avvelenati un valore di CRP elevato all'ammissione può predisporre al decesso. La proteina C reattiva assume quindi un ruolo diagnostico e prognostico in questo avvelenamento. Un'altra finalità, di non inferiore importanza, è quella di definire una linea guida terapeutica con l'ausilio di biomarker coagulativi e di valutare la sicurezza della vitamina K per via endovenosa: in 73 cani, non in terapia con vitamina k, intossicati da rodenticidi anticoagulanti, i tempi della coagulazione (PT ed aPTT) ritornano nel range di normalità dopo 4 ore dalla prima somministrazione di 5 mg/kg di vitamina k per via endovenosa e nessun soggetto durante e dopo il trattamento ha manifestato reazioni anafilattiche, nessuno dei pazienti ha necessitato trasfusione ematica e tutti sono sopravvissuti. Infine si è valutata l'epidemiologia dell'ingestione dei prodotti rodenticidi nella specie oggetto di studio e la determinazione dei principi attivi mediante cromatografia liquida abbinata a spettrofotometria di massa (UPLC-MS/MS).
Resumo:
Obiettivo del lavoro è stato lo sviluppo e la validazione di nuovi bioassay e biomarker quali strumenti da utilizzare in un approccio ecotossicologico integrato per il biomonitoraggio di ambienti marino-costieri interessati da impatto antropico negli organismi che vivono in tali ambienti. L’ambiente reale impiegato per l’applicazione in campo è la Rada di Augusta (Siracusa, Italia). Una batteria di bioassay in vivo e in vitro è stata indagata quale strumento di screening per la misura della tossicità dei sedimenti. La batteria selezionata ha dimostrato di possedere i requisiti necessari ad un applicazione di routine nel monitoraggio di ambienti marino costieri. L’approccio multimarker basato sull’impiego dell’organismo bioindicatore Mytilus galloprovincialis in esperimenti di traslocazione ha consentito di valutare il potenziale applicativo di nuovi biomarker citologici e molecolari di stress chimico parallelamente a biomarker standardizzati di danno genotossico ed esposizione a metalli pesanti. I mitili sono stati traslocati per 45 giorni nei siti di Brucoli (SR) e Rada di Augusta, rispettivamente sito di controllo e sito impattato. I risultati ottenuti supportano l’applicabilità delle alterazioni morfometriche dei granulociti quale biomarker di effetto, direttamente correlato allo stato di salute degli organismi che vivono in un dato ambiente. Il significativo incremento dell’area dei lisosomi osservato contestualmente potrebbe riflettere un incremento dei processi degradativi e dei processi autofagici. I dati sulla sensibilità in campo suggeriscono una valida applicazione della misura dell’attività di anidrasi carbonica in ghiandola digestiva come biomarker di stress in ambiente marino costiero. L’utilizzo delle due metodologie d’indagine (bioassay e biomarker) in un approccio ecotossicologico integrato al biomonitoraggio di ambienti marino-costieri offre uno strumento sensibile e specifico per la valutazione dell’esposizione ad inquinanti e del danno potenziale esercitato dagli inquinanti sugli organismi che vivono in un dato ambiente, permettendo interventi a breve termine e la messa a punto di adeguati programmi di gestione sostenibile dell’ambiente.
Resumo:
I sistemi software nati dall'esigenza di supportare agevolmente ed efficacemente il lavoro cooperativo, in particolare quelli orientati al supporto di azioni di soccorso in scenari di emergenza, appaiono tutt'ora fortemente limitati e frammentati. In molti casi vengono affrontate solamente specifiche dimensioni del problema complessivo, anche se il livello al quale è giunto lo sviluppo tecnologico e i risultati osservati in ambito di ricerca permettono di delineare soluzioni complete e significative per l'impiego in ambiti reali. Tale tipologia di sistemi è stata scelta per il grande interesse che desta sia dal punto di vista accademico, essendo costituita da molteplici sotto--sistemi spesso eterogenei che debbono necessariamente interagire e supportare l'azione umana, sia dal punto di vista industriale, interpretando la necessità crescente di iniettare nel maggior numero possibile di livelli sociali la forte dipendenza (il supporto allo stesso tempo) dalle scienze tecnologiche ed informatiche, per rafforzare e talvolta estendere le possibilità dell'essere umano in quanto tale. Dopo una prima fase in cui verrà delineato un quadro concettuale piuttosto dettagliato circa i principali elementi e problematiche che caratterizzano la classe di sistemi considerati, sarà dato spazio alla validazione di tali principi e considerazioni emerse, confrontandosi con la progettazione e sviluppo in forma prototipale di un sotto--sistema relativo ad un caso di studio reale, significativo per l'ambito di applicazione, nato dalla collaborazione con l'Università degli Studi di Bologna di un'azienda della regione Emilia--Romagna. Il sistema software realizzato vuole essere innanzi tutto la risposta alle esigenze emerse nel caso di studio trattato, in modo tale da potersi sostituire agli attuali limitati supporti alla cooperazione, ma anche un esperimento che possa essere considerato un artefatto centrale da utilizzare come base di conoscenza condivisa, in cui vengano fattorizzati i concetti e meccanismi chiave, fondamentali per sviluppi futuri.
Resumo:
I cambiamenti climatici stanno sempre più influenzando l’assetto territoriale ed ambientale della nostra società. Questo fatto si evince da eventi che riescono a sconvolgere le opere atte alla loro mitigazione; tali sistemi vengono progettati tenendo conto delle competenze acquisite in campo teorico e archivistico, ovvero la serie dei dati storici sui quali costruire dei modelli probabilistici che permettano di determinare il massimo grado di intensità che l'evento di interesse potrà generare. Questi database, però, conseguentemente ai cambiamenti ambientali cui stiamo avendo testimonianza diretta, risultano essere sempre meno affidabili allo scopo di impostare questi studi di tendenza. Esempio di quanto detto sono le alluvioni, generate da eventi meteorologici fuori dall'ordinario: queste situazioni, sempre più frequenti sul nostro territorio, oltre che subire l'influsso dei cambiamenti climatici, trovano un substrato favorevole nel quale attecchire, dovuto dall'alto grado di antropizzazione del territorio. In questo ambito, rientrano quegli eventi che i media chiamano "bombe d'acqua", le quali scaricano su un piccolo territorio una massiccia quantità di acque di precipitazione in un arco di tempo estremamente limitato. L'effetto principale è quello di mettere in crisi la rete idrologica della zona colpita, la quale non è stata progettata per sopportare eventi di tale magnitudo. Gli effetti avversi sul territorio possono essere importanti e vantano una vasta gamma di effetti. Inondazioni ed allagamenti in primis, poi i conseguenti da danni economici, ma anche smottamenti o colate di fango ed il collasso dei sistemi fognari. In questo lavoro di tesi, queste problematiche saranno trattate col fine ultimo di valutare delle soglie di precipitazioni, tali per cui, in caso di eventi meteorologici fuori dall’ordinario, sarà possibile allertare la popolazione localizzata nella zona soggetta a rischio idro-geologico. Questa analisi è stata condotta grazie ai dati reperiti per un piccolo bacino pedecollinare del Comune di Rimini.
Resumo:
Gli elementi ludici aiutano a comprendere i bisogni del mondo in cui viviamo e rendono meno noiose quelle attività che normalmente non gratificano in modo sufficiente un individuo; la gamification viene definita come l'utilizzo di elementi di gioco in contesti non di gioco. In questo elaborato viene analizzato come si è evoluto il rapporto tra essere umano e gioco, come si è arrivati a definire la gamification e quali sono le parti atomiche che la compongono. Si analizzano diversi casi di successo in cui è stata implementata la gamification ed infine viene analizzato il mio progetto personale ParcheggioGratuito, in cui applico metodologie di gamification per facilitare il meccanismo di ricerca del parcheggio nella propria città.
Resumo:
Questa tesi di laurea si riferisce allo studio cinematico e morfologico di flussi granulari composti di materiale vulcanico naturale tramite la strumentazione sperimentale GRANFLOW-sim presso il Dipartimento di Scienze Geologiche dell’Università Autonoma di San Luis Potosì in Messico. E’ stato adottato un approccio sperimentale finalizzato a riprodurre le condizioni fisico-meccaniche di flussi granulari secchi in piccola scala riconducibili a differenti ambienti deposizionali naturali e artificiali. La strumentazione è composta da una canaletta di alimentazione ad inclinazione fissa di 40° ed un piano di deposizione a inclinazioni variabile da 0° a 20° al fine di simulare diverse condizioni deposizionali. Specifici sensori in posizione fissa sullo strumento hanno consentito di raccogliere dati cinematici del flusso e morfologici del deposito corrispondente, rielaborati in profili di velocità e modelli morfologici digitali per ognuno degli esperimenti effettuati. E’ stata osservata una tripartizione del fronte del flusso granulare caratterizzata da i) clasti balistici isolati, ii) un fronte disperso costituito da clasti saltellanti che precede l’arrivo del iii) fronte compatto del flusso costituito dalla parte principale del materiale trasportato. La normalizzazione dei dati cinematici e morfologici ha reso possibile l’elaborazione di relazioni empiriche per lunghezza e larghezza del deposito e velocità massima del flusso in funzione di variabili condizioni di slope-ratio (rapporto tra l’inclinazione del piano di deposizione e della canaletta) e ΔH (differenza di quota tra l’area sorgente del flusso ed il fronte compatto del deposito). Queste relazioni sono state confrontate con i valori ottenuti da Zanchetta et al. (2004) per i flussi granulari naturali nell’area di Sarno, unico caso di studio reale confrontabile con le condizioni sperimentali adottate in questa tesi. Tale confronto ha mostrato una buona corrispondenza tra dati sperimentali e situazione reale nei casi in cui l’effetto di canalizzazione dei flussi granulari era trascurabile. Ciò evidenzia la possibilità di calibrare la strumentazione GRANFLOW-sim al fine di incorporare la valutazione dell’effetto di canalizzazione, ampliando il raggio di utilizzo delle relazioni empiriche ad un numero maggiore di casi di studio di flussi granulari naturali.
Resumo:
L’avvento delle tecniche di imaging volumetrico, quali la CT (Computed Tomography) e la MRI (Magnetic Resonance Investigation), ha portato ad un crescente interesse verso applicazioni di guida chirurgica che utilizzano processi di allineamento delle immagini diagnostiche provenienti da diverse modalità e di tecniche che ne permettono la visualizzazione in sala operatoria, in modo da fornire al chirurgo il maggior numero di informazioni cliniche possibili durante un intervento. Il crescente interesse verso questo tipo di applicazioni è dovuto anche allo sviluppo di dispositivi di imaging intra-operatorio quali archi a C-mobili radiologici, PC ad alte prestazioni e convertitori A/D 3D con precisione clinicamente accettabile. Questi ultimi due hanno conseguentemente portato a sviluppare ed implementare software dedicati alla pianificazione di un intervento chirurgico, permettendo quindi di elaborare digitalmente le immagini diagnostiche e ricostruire un modello che rappresenta l’effettiva anatomia del paziente. Questo processo nel suo complesso ha portato allo sviluppo di quelli che oggi vengono chiamati sistemi di navigazione chirurgica, abbreviati talvolta in IGSS (Imaging-Guided Surgery Systems), sistemi ovvero che permettono di utilizzare immagini pre-operatorie come guida durante la pratica chirurgica, caratterizzando quindi nuovi metodi di approccio alla chirurgia, le IGS (Image-Guided Surgery) appunto.
Resumo:
L’obiettivo della tesi è definire un modello che permetta di realizzare applicazioni che integrino diverse tecnologie come la realtà aumentata, pervasive computing e Internet of Things. In particolare si analizza la nozione di "augmentation" che indica un’estensione e un arricchimento delle funzionalità e delle informazioni che possono essere percepite dai sensi umani e che può essere ritrovata, in modo diverso, nelle tecnologie trattate. A tal proposito, si introduce l’idea di augmented world, il cui scopo è quello di realizzare un livello aumentato collegato ad un livello fisico, attraverso il quale permettere l’interazione tra elementi virtuali ed elementi fisici. In seguito, tramite un'analisi tassonomica si vogliono individuare le caratteristiche ed i requisiti fondanti degli ambiti applicativi trattati per poter definire un modello che possa essere utilizzato come riferimento per le diverse tipologie di applicazioni. Infine il modello proposto è stato applicato a diversi casi di studio che spaziano tra i principali contesti applicativi in cui vengono utilizzate le tecnologie illustrate. La modellazione è fatta prescindendo da alcuni aspetti relativi alla comunicazione o alla sincronizzazione tra livello reale e livello aumentato, in quanto l’obiettivo è esporre una prima validazione del modello che permetta di riscontrarne l’adeguatezza ed eventuali limiti per una futura raffinazione.
Resumo:
L’utilizzo di nanomateriali, ovvero una nuova classe di sostanze composte da particelle ultrafini con dimensioni comprese fra 1 e 100 nm (American Society for Testing Materials - ASTM), è in costante aumento a livello globale. La particolarità di tali sostanze è rappresentata da un alto rapporto tra la superficie e il volume delle particelle, che determina caratteristiche chimico-fisiche completamente differenti rispetto alle omologhe macrosostanze di riferimento. Tali caratteristiche sono tali da imporre una loro classificazione come nuovi agenti chimici (Royal Society & Royal Academy of Engineering report 2004). Gli impieghi attuali dei nanomateriali risultano in continua evoluzione, spaziando in diversi ambiti, dall’industria farmaceutica e cosmetica, all’industria tessile, elettronica, aerospaziale ed informatica. Diversi sono anche gli impieghi in campo biomedico; tra questi la diagnostica e la farmacoterapia. È quindi prevedibile che in futuro una quota sempre maggiore di lavoratori e consumatori risulteranno esposti a tali sostanze. Allo stato attuale non vi è una completa conoscenza degli effetti tossicologici ed ambientali di queste sostanze, pertanto, al fine di un loro utilizzo in totale sicurezza, risulta necessario capirne meglio l’impatto sulla salute, le vie di penetrazione nel corpo umano e il rischio per i lavoratori conseguente al loro utilizzo o lavorazione. La cute rappresenta la prima barriera nei confronti delle sostanze tossiche che possono entrare in contatto con l’organismo umano. Successivamente agli anni ‘60, quando si riteneva che la cute rappresentasse una barriera totalmente impermeabile, è stato dimostrato come essa presenti differenti gradi di permeabilità nei confronti di alcuni xenobiotici, dipendente dalle caratteristiche delle sostanze in esame, dal sito anatomico di penetrazione, dal grado di integrità della barriera stessa e dall’eventuale presenza di patologie della cute. La mucosa del cavo orale funge da primo filtro nei confronti delle sostanze che entrano in contatto con il tratto digestivo e può venir coinvolta in contaminazioni di superficie determinate da esposizioni occupazionali e/o ambientali. È noto che, rispetto alla cute, presenti una permeabilità all’acqua quattro volte maggiore, e, per tale motivo, è stata studiata come via di somministrazione di farmaci, ma, ad oggi, pochi sono gli studi che ne hanno valutato le caratteristiche di permeazione nei confronti delle nanoparticelle (NPs). Una terza importante barriera biologica è quella che ricopre il sistema nervoso centrale, essa è rappresentata da tre foglietti di tessuto connettivo, che assieme costituiscono le meningi. Questi tre foglietti rivestono completamente l’encefalo permettendone un isolamento, tradizionalmente ritenuto completo, nei confronti degli xenobiotici. L’unica via di assorbimento diretto, in questo contesto, è rappresentata dalla via intranasale. Essa permette un passaggio diretto di sostanze dall’epitelio olfattivo all’encefalo, eludendo la selettiva barriera emato-encefalica. Negli ultimi anni la letteratura scientifica si è arricchita di studi che hanno indagato le caratteristiche di assorbimento di farmaci attraverso questa via, ma pochissimi sono gli studi che hanno indagato la possibile penetrazione di nanoparticelle attraverso questa via, e nessuno, in particolar modo, ha indagato le caratteristiche di permeazione delle meningi. L’attività di ricerca svolta nell’ambito del presente dottorato ha avuto per finalità l’indagine delle caratteristiche di permeabilità e di assorbimento della cute, della mucosa del cavo orale e delle meningi nei confronti di alcune nanoparticelle, scelte fra quelle più rappresentative in relazione alla diffusione d’utilizzo a livello globale. I risultati degli esperimenti condotti hanno dimostrato, in vitro, che l’esposizione cutanea a Pt, Rh, Co3O4 e Ni NPs determinano permeazione in tracce dei medesimi metalli attraverso la cute, mentre per le TiO2 NPs tale permeazione non è stata dimostrata. È stato riscontrato, inoltre, che la mucosa del cavo orale e le meningi sono permeabili nei confronti dell’Ag in forma nanoparticellare.
Resumo:
At head of title: Reale Accademia delle scienze di Torino (Anno 1919-1920)