650 resultados para Nanofili silicio livelli profondi DLTS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il medulloblastoma (MB) è il tumore più comune del sistema nervoso centrale. Attualmente si riesce a curare solo il 50-60% dei pazienti che tuttavia presentano gravi effetti collaterali dovuti alle cure molto aggressive. Una recente classificazione molecolare ha ridistribuito le varianti più comuni di MB in quattro distinti gruppi. In particolare, il gruppo SHH e D sono caratterizzati da un’ alta espressione di MYCN ed associati a prognosi sfavorevole. MYCN è coinvolto nella regolazione della proliferazione cellulare, differenziazione, apoptosi, angiogenesi e metastasi. L’obiettivo di questo lavoro è la valutazione dell’attività antitumorale di oligonucleotidi diretti contro MYCN, sia in vitro su diverse linee cellulari di MB che in vivo in modelli murini xenograft ortotopici di MB. I risultati hanno dimostrato un’ottima inibizione della crescita in linee cellulari di MB, accompagnata da una riduzione della trascrizione genica e dei livelli proteici di MYCN. Inoltre, sono stati confermati tramite RT-PCR alcuni dei geni trovati significativamente variati nell’esperimento di microarray , dopo il trattamento. Molto interessanti sono stati geni quali BIRC5, che risulta down regolato mentre il gene p21 risulta up regolato in tutte le linee cellulari di MB utilizzate. Inoltre, sono stati generati modelli murini di MB utilizzando cellule precedentemente trasfettate per esprimere il gene della luciferasi e valutarne così la crescita tumorale tramite imaging bioluminescente in vivo (BLI), al fine di poter testare l’attività antitumorale data dagli oligonucleotidi. I risultati hanno dimostrato una buona risposta al trattamento come rilevato dalla tecnica di BLI. I dati preliminari prodotti, dimostrano che MYCN potrebbe esser un buon target per la terapia del MB nei casi in cui è overespresso. In particolare, una sua inibizione potrebbe presentare effetti indesiderati moderati in quanto è poco espresso dopo la nascita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Attraverso il programma agli elementi finiti Abaqus, è stato modellato un sistema composto da massetto-adesivo-piastrelle al fine di determinare le prestazioni e la durabilità di una piastrellatura sottoposta a definiti livelli di sollecitazione. In particolare è stata eseguita un’analisi parametrica per comprendere se il meccanismo di collasso, caratterizzato dal distacco delle piastrelle dal massetto, dipenda dai parametri geometrici del sistema e dalle proprietà meccaniche. Il modello è stato calibrato ed ottimizzato per rispondere alle esigenze del CCB (Centro Ceramico Bologna, area disciplinare della scienza e tecnologia dei materiali), che tramite una convenzione con il dipartimento DICAM - Scienze delle costruzioni, richiede, per garantire la durabilità dell’installazione, l’interpretazione dei seguenti punti: - Influenza di un aumento del formato delle piastrelle; - Influenza di una riduzione dello spessore della fuga; - Influenza delle caratteristiche meccaniche dei materiali costituenti i diversi elementi; per esempio aumento della deformabilità dello strato di supporto oppure altro tipo di massetto, sigillante o adesivo. La richiesta dello studio del comportamento meccanico di rivestimenti ceramici deriva dal fatto che sul mercato si stanno sviluppando delle piastrelle ceramiche molto sottili e di dimensioni sempre più grandi (come ad esempio la tecnologia System-laminam), di cui non si conosce a pieno il comportamento meccanico. Il CCB cerca di definire una norma nuova e specifica per questo tipo di lastre, in cui sono indicati metodi di misura adatti e requisiti di accettabilità appropriati per lastre ceramiche sottili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. L’obbiettivo che ci poniamo con questa tesi è quindi quello di esplorare il nascente mondo del Cloud Computing, cercando di comprenderne a fondo le principali caratteristiche architetturali e focalizzando l’attenzione in particolare sullo sviluppo di applicazioni in ambiente Cloud, processo che sotto alcuni aspetti si differenzia molto dallo sviluppo orientato ad ambienti più classici. La tesi è così strutturata: nel primo capitolo verrà fornita una panoramica sul Cloud Computing nella quale saranno date anche le prime definizioni e verranno esposti tutti i temi fondamentali sviluppati nei capitoli successivi. Il secondo capitolo costituisce un approfondimento su un argomento specifico, quello dei Cloud Operating System, componenti fondamentali che permettono di trasformare una qualunque infrastruttura informatica in un’infrastruttura Cloud. Essi verranno presentati anche per mezzo di molte analogie con i classici sistemi operativi desktop. Con il terzo capitolo ci si addentra più a fondo nel cuore del Cloud Computing, studiandone il livello chiamato Infrastructure as a Service tramite un esempio concreto di Cloud provider: Amazon, che fornisce i suoi servizi nel progetto Amazon Web Services. A questo punto, più volte nel corso della trattazione di vari temi saremo stati costretti ad affrontare le problematiche relative alla gestione di enormi moli di dati, che spesso sono il punto centrale di molte applicazioni Cloud. Ci è parso quindi importante approfondire questo argomento in un capitolo appositamente dedicato, il quarto, supportando anche in questo caso la trattazione teorica con un esempio concreto: BigTable, il sistema di Google per la gestione della memorizzazione di grandi quantità di dati. Dopo questo intermezzo, la trattazione procede risalendo lungo i livelli dell’architettura Cloud, ricalcando anche quella che è stata l’evoluzione temporale del Cloud Computing: nel quinto capitolo, dal livello Infrastructure as a Service si passa quindi a quello Platform as a Service, tramite lo studio dei servizi offerti da Google Cloud Platform. Il sesto capitolo costituisce invece il punto centrale della tesi, quello che ne soddisfa l’obbiettivo principale: esso contiene infatti uno studio approfondito sullo sviluppo di applicazioni orientate all’ambiente Cloud. Infine, il settimo capitolo si pone come un ponte verso possibili sviluppi futuri, analizzando quali sono i limiti principali delle tecnologie, dei modelli e dei linguaggi che oggi supportano il Cloud Computing. In esso viene proposto come possibile soluzione il modello ad attori; inoltre viene anche presentato il framework Orleans, che Microsoft sta sviluppando negli ultimi anni con lo scopo appunto di supportare lo sviluppo di applicazioni in ambiente Cloud.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I sistemi di drenaggio urbano meritano particolare attenzione per l’importante compito che devono garantire all’interno della società. L’allontanamento delle acque reflue dalle zone urbanizzate infatti è indispensabile per non creare problemi ed interferenze con attività sociali ed economiche che in esse si svolgono; inoltre un corretto funzionamento del sistema di drenaggio assicura anche un basso impatto ambientale in termini di qualità e quantità. La disponibilità di nuove tecnologie costruttive e materiali in continua evoluzione devono fare fronte alla crescente complessità idraulica, geotecnica e urbanistica delle strutture componenti i sistemi di drenaggio; in tale elaborato si vuole porre l’accento sul problema dello smaltimento delle acque meteoriche nelle zone densamente urbanizzate, la cui soluzione è costituita dall'adozione delle cosiddette BMP (Best Management Practices). Le BMP sono definite come strategie, pratiche o metodi per la rimozione, la riduzione, il ritardo o la prevenzione della quantità di costituenti inquinanti e contaminanti delle acque di pioggia, prima che giungano nei corpi idrici ricettori. Tra esse ricordiamo le cisterne o rain barrels, i pozzi asciutti, i sistemi drywell, le vasche verdi filtranti, i tetti verdi, i canali infiltranti, i fossi di infiltrazione, i pozzi perdenti, i planting container, i canali inerbiti, i bacini di infiltrazione, le gross pullutant traps (gpts), gli stagni, i sistemi di fitodepurazione estensiva (sfe), le pavimentazioni drenanti. In Italia esse risultano ancora scarsamente studiate ed applicate, mentre trovano più ampio sviluppo in realtà estere come in Inghilterra ed in Australia. Per comprendere la efficacia di tali tecniche BMP è necessario analizzarle e, soprattutto, analizzare il loro effetto sul territorio in cui esse vengono inserite e sul regime idrogeologico dell’ambiente. Questa analisi può essere svolta con prove sperimentali su aree di controllo (soluzione economicamente gravosa) o attraverso modelli matematici tramite l’utilizzo di software di calcolo che simulino il comportamento delle portate, dei tiranti idrici e degli inquinanti nei canali e nelle strutture accessorie costituenti la rete fognaria, in conseguenza ad eventi di pioggia dei quali sia nota la distribuzione spaziale e temporale. In questo elaborato si modellizza attraverso il programma Matlab un unico elemento BMP e si osservano i suoi effetti; si procede cioè alla analisi del funzionamento di un ipotetico brown roof installato nella zona di Rimini e si osservano i benefici effetti che ne derivano in termini di volumi di pioggia trattenuti dal sistema considerando diverse tipologie di pioggia e diversi parametri progettuali per il tetto (i fori dello strato inferiore del tetto, la altezza dello strato di terreno, la sua permeabilità e la sua porosità). Si procede poi con la analisi di una ipotetica zona commerciale che sorge sulle sponde di un fiume. Tali analisi vengono svolte con il software HEC-RAS per quanto riguarda la analisi dei livelli del fiume e delle zone a rischio di inondazione. I risultati forniti da questo studio preliminare vengono poi utilizzati come condizioni al contorno per una successiva analisi effettuata con il software InfoWorks in cui si valutano i benefici che derivano dalla installazione di diverse BMP nella zona commerciale oggetto di studio. Tale modello esamina un verosimile scenario inglese, la cittadina infatti si ipotizza situata in Inghilterra e anche gli eventi pluviometrici a cui ci si riferisce sono tipici eventi di pioggia inglesi. Tutti i dati di input elaborati nelle simulazioni sono stati forniti all’interno di un progetto universitario svolto presso l’università di Bradford con la supervisione dei professori Simon Tait ed Alma Schellart. Infine la parte conclusiva dell’elaborato è stata sviluppata in collaborazione con Hera S.p.a. di Rimini all’interno di un percorso di tirocinio curriculare che ha previsto la analisi delle tecnologie BMP adatte per l’ambiente cittadino di Rimini e la osservazione delle performance garantite da tecnologie esistenti sul territorio: i parcheggi permeabili. La realtà riminese infatti deve far fronte a diversi problemi che si innescano durante i periodi di pioggia ed una mitigazione dei volumi di acqua in arrivo alla fognatura grazie a questo tipo di tecnologie, senza quindi ricorrere agli usuali sistemi puntuali, porterebbe sicuramente a notevoli vantaggi. Tali tecnologie però non devono solo essere progettate e costruite in modo corretto, ma devono essere sottoposte a periodici controlli ed adeguate operazioni di manutenzione per non perdere la loro efficacia. Per studiare tale aspetto si procede quindi alla misura della permeabilità di parcheggi drenanti presenti all’interno dei comuni di Cattolica e Rimini ricercando i fattori che influenzano tale caratteristica fondamentale dei parcheggi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La micosi fungoide (MF) è un linfoma a cellule T primitivo della cute usualmente indolente negli stadi iniziali, ma con prognosi decisamente peggiore nelle fasi avanzate, ove attualmente non sono presenti strategie terapeutiche tali da indurre remissioni durature. Recenti osservazioni indicano che alti livelli di espressione del vascular endothelial growth factor (VEGF) nelle cellule della MF sembrano correlare con una prognosi peggiore. Nel presente studio, sono state vagliate le eventuali differenze di espressione di VEGF nella MF e nei linfociti T normali. In primo luogo sono stati raffrontati 63 casi di MF con 20 campioni corrispondenti alle diverse sottopopolazioni di linfociti T normali, per stabilire quale fra questi esprimesse maggiori livelli di VEGF. Tale esperimento ha dimostrato che il gene è notevolmente più espresso nella MF. Si è provveduto a stabilire se tale dato sia da correlarsi ad un fenomeno patologico o fisiologico. Quindi sono state eseguite indagini di gene expression profiling (GEP) allo scopo di vagliare i livelli di VEGF nella popolazione linfocitaria T normale (CD4+, CD8+, HLA-DR+ e HLA-DR-): da ciò è risultato che i linfociti T attivati esprimono maggiormente VEGF e che il loro GEP è globalmente paragonabile a quello della MF. Pertanto, i linfociti T attivati sono stati considerati la controparte normale delle cellule della MF. Successivamente si è confrontata l’espressione quantitativa di VEGF nei linfociti T attivati e nelle cellule della MF, evidenziando come questa sia maggiore nella popolazione neoplastica indipendentemente dallo stadio della malattia. Le indagini immunoistochimiche condotte su 18 casi di MF, hanno confermato quanto evidenziato attraverso il GEP. Concludendo, la ricerca ha dimostrato per la prima volta l’espressione di VEGF negli elementi della MF. Ciò porta a supporre che la de-regolazione genica della via di VEGF sia correlata nella patogenesi della MF e che tale molecola possa considerarsi un potenziale bersaglio terapeutico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le patologie di pertinenza odontostomatologica in pazienti adulti istituzionalizzati affetti da disabilità neuropsichiatrica presentano un’alta prevalenza; scopo del presente lavoro è stato la valutazione della prevalenza di carie (DMFT, SIC) e lo stato di igiene orale (OHI-S) in un gruppo di 103 (72 maschi, 31 femmine, età media 51) pazienti degli Istituti del P.O. Corberi e della RSD Beato Papa Giovanni XIII di Limbiate (MB). E’ stato valutata la collaborazione alla visita con la scala di Frankl, si è definito lo stato funzionale del paziente, in base alla Classificazione Internazionale del Funzionamento, della Disabilità e della Salute (ICF) e si è valutata con un questionario la motivazione degli operatori sanitari a stili di salute orale. Lo studio ha evidenziato un DMFT medio pari a 16,14 e SIC pari a 23,8, valori non correlabili con l'età del soggetto. L’OHI-S medio è pari a 3,46, dato che si presenza correlato con il tempo intercorso dall’ultima visita odontoiatrica. Dal confronto con un gruppo di soggetti sani della stessa età risultano significativamente più elevati i valori della componente (M) e (F) del DMFT e di tutte le componenti dell’OHI-S. Il campione è stato diviso in due gruppi a seconda della loro pregressa collaborazione al trattamento odontoiatrico e sono stati confrontati i dati ricavati dalla checklist ICF. Il gruppo collaborante ha mostrato livelli di funzionalità superiori per quanto riguarda le capacità di osservare, parlare e l’assistenza personale. Dalle risposte del personale socio-sanitario ermerge scarsa informazione sulle tecniche di igiene orale domiciliare quotidiana del paziente assistito. I risultati di questo studio confermano l'alta prevalenza di carie e scarsa igiene orale in soggetti istituzionalizzati con disabilità neuropsichiatrica. L'ICF si è dimostrata una utile guida per la valutazione dell�approccio comportamentale più idoneo in fase di trattamento. Infine, si evidenzia l’importanza di una formazione continua degli operatori socio-sanitari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cippatura è un processo produttivo fondamentale nella trasformazione della materia prima forestale in biomassa combustibile che coinvolgerà un numero sempre più crescente di operatori. Scopo dello studio è stato quantificare la produttività e il consumo di combustibile in 16 cantieri di cippatura e determinare i livelli di esposizione alla polvere di legno degli addetti alla cippatura, in funzione di condizioni operative differenti. Sono state identificate due tipologie di cantiere: uno industriale, con cippatrici di grossa taglia (300-400kW) dotate di cabina, e uno semi-industriale con cippatrici di piccola-media taglia (100-150kW) prive di cabina. In tutti i cantieri sono stati misurati i tempi di lavoro, i consumi di combustibile, l’esposizione alla polvere di legno e sono stati raccolti dei campioni di cippato per l’analisi qualitativa. Il cantiere industriale ha raggiunto una produttività media oraria di 25 Mg tal quali, ed è risultato 5 volte più produttivo di quello semi-industriale, che ha raggiunto una produttività media oraria di 5 Mg. Ipotizzando un utilizzo massimo annuo di 1500 ore, il cantiere semi-industriale raggiunge una produzione annua di 7.410 Mg, mentre quello industriale di 37.605 Mg. Il consumo specifico di gasolio (L per Mg di cippato) è risultato molto minore per il cantiere industriale, che consuma in media quasi la metà di quello semi-industriale. Riguardo all’esposizione degli operatori alla polvere di legno, tutti i campioni hanno riportato valori di esposizione inferiori a 5 mg/m3 (limite di legge previsto dal D.Lgs. 81/08). Nei cantieri semi-industriali il valore medio di esposizione è risultato di 1,35 mg/m3, con un valore massimo di 3,66 mg/m3. Nei cantieri industriali si è riscontrato che la cabina riduce drasticamente l’esposizione alle polveri di legno. I valori medi misurati all’esterno della cabina sono stati di 0,90 mg/m3 mentre quelli all’interno della cabina sono risultati pari a 0,20 mg/m3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

E’ mostrata l’analisi e la modellazione di dati termocronologici di bassa temperatura da due regioni Alpine: il Sempione ed il Brennero. Le faglie distensive presenti bordano settori crostali profondi appartenenti al dominio penninico: il duomo metamorfico Lepontino al Sempione e la finestra dei Tauri al Brennero. I dati utilizzati sono FT e (U-Th)/He su apatite. Per il Sempione i dati provengono dalla bibliografia; per il Brennero si è provveduto ad un nuovo campionamento, sia in superficie che in sotterraneo. Gli attuali lavori per la galleria di base del Brennero (BBT), hanno consentito, per la prima volta, di raccogliere dati di FT e (U-Th)/He in apatite in sottosuolo per la finestra dei Tauri occidentale. Le analisi sono state effettuate tramite un codice a elementi finiti, Pecube, risolvente l’equazione di diffusione del calore per una topografia evolvente nel tempo. Il codice è stato modificato per tener conto dei dati sotterranei. L’inversione dei dati è stata effettuata usando il Neighbourhood Algorithm (NA), per ottenere il più plausibile scenario di evoluzione morfotettonico. I risultati ottenuti per il Sempione mostrano: ipotetica evoluzione dello stile tettonico della faglia del Sempione da rolling hinge a low angle detachment a 6.5 Ma e la cessazione dell’attività a 3 Ma; costruzione del rilievo fino a 5.5 Ma, smantellamento da 5.5 Ma ad oggi, in coincidenza dei cambiamenti climatici Messiniani e relativi all’inizio delle maggiori glaciazioni; incremento dell’esumazione da 0–0.6 mm/anno a 0.6–1.2 mm/anno a 2.4 Ma nell’emisfero settentrionale. I risultati al Brennero mostrano: maggiore attività tettonica della faglia del Brennero (1.3 mm/anno), maggiore attività esumativa (1–2 mm/anno) prima dei 10 Ma; crollo dell’attività della faglia del Brennero fra 10 Ma e oggi (0.1 mm/anno) e dell’attività esumativa nello stesso periodo (0.1–0.3 mm/anno); nessun aumento del tasso esumativo o variazioni topografiche negli ultimi 5 Ma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Photovoltaic (PV) conversion is the direct production of electrical energy from sun without involving the emission of polluting substances. In order to be competitive with other energy sources, cost of the PV technology must be reduced ensuring adequate conversion efficiencies. These goals have motivated the interest of researchers in investigating advanced designs of crystalline silicon solar (c-Si) cells. Since lowering the cost of PV devices involves the reduction of the volume of semiconductor, an effective light trapping strategy aimed at increasing the photon absorption is required. Modeling of solar cells by electro-optical numerical simulation is helpful to predict the performance of future generations devices exhibiting advanced light-trapping schemes and to provide new and more specific guidelines to industry. The approaches to optical simulation commonly adopted for c-Si solar cells may lead to inaccurate results in case of thin film and nano-stuctured solar cells. On the other hand, rigorous solvers of Maxwell equations are really cpu- and memory-intensive. Recently, in optical simulation of solar cells, the RCWA method has gained relevance, providing a good trade-off between accuracy and computational resources requirement. This thesis is a contribution to the numerical simulation of advanced silicon solar cells by means of a state-of-the-art numerical 2-D/3-D device simulator, that has been successfully applied to the simulation of selective emitter and the rear point contact solar cells, for which the multi-dimensionality of the transport model is required in order to properly account for all physical competing mechanisms. In the second part of the thesis, the optical problems is discussed. Two novel and computationally efficient RCWA implementations for 2-D simulation domains as well as a third RCWA for 3-D structures based on an eigenvalues calculation approach have been presented. The proposed simulators have been validated in terms of accuracy, numerical convergence, computation time and correctness of results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sono stati studiati gli effetti tossici dell’esposizione cronica a cobalto e cromo. In passato, questa tossicità, che colpiva lavoratori esposti per ragioni occupazionali, è stata un problema molto sentito. Tuttavia, recenti pubblicazioni hanno descritto una specifica tossicità mediata da elevati livelli di cobalto e cromo, anche in pazienti portatori di protesi metalliche, quali gli impianti d’anca. Anche se sintomi clinici tra cui, cecità, sordità e neuropatia periferica, suggeriscono uno specifico neurotropismo, ancora poco è conosciuto delle basi neuropatologiche di questo processo ed oltretutto non ne è ancora stata apportata un’evidenza sperimentale. In questo progetto di ricerca, quindi, si è voluto approfondire il meccanismo patogenetico da cui scaturiscono tali sintomi neurologici, utilizzando come modello sperimentale il coniglio. Conigli New Zealand White sono stati trattati con dosi endovenose ripetute di cobalto e cromo, inoculati singolarmente od in associazione tra loro. Nessuna evidente alterazione clinica o patologica è stata associata alla somministrazione di solo cromo, nonostante gli elevati livelli in sangue e tessuti, mentre i trattati con cobalto-cromo o solo cobalto hanno mostrato segni clinici gravanti sul sistema vestibolo-cocleare; il cobalto, quindi, è stato identificato come il maggiore elemento scatenante neurotossicità. Inoltre all’esame istopatologico gli animali hanno mostrato severa deplezione delle cellule gangliari retiniche e cocleari, assieme a danno al nervo ottico e perdita di cellule sensitive capellute dell’orecchio. È risultato infine evidente che la gravità delle alterazioni è stata correlata al dosaggio ed al tempo di esposizione; dati questi che confermano, quindi, le precedenti osservazioni fatte su pazienti umani esposti a rilascio abnorme di cobalto e cromo da usura di protesi d’anca. È stato ipotizzato che il cobalto agisca sui mitocondri provocando l’incremento di produzione di specie reattive dell’ossigeno e il rilascio di fattori proapoptotici, causando sulle cellule neuronali un danno proporzionale al loro fabbisogno energetico e grado di mielinizzazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi decenni le nuove scoperte mediche e il miglioramento dello stile di vita nei paesi occidentali hanno determinato un aumento del consumo di sostanze terapeutiche, nonché della gamma di prodotti farmaceutici e parafarmaceutici comunemente utilizzati. Gli studi di cinetica dei farmaci dimostrano con certezza che essi, seppur metabolizzati, mantengono inalterato il loro potere d’azione, rimanendo biodisponibili anche una volta escreti dall’organismo. A causa della loro eccessiva polarità tali molecole sono inoltre difficilmente trattenute dai convenzionali impianti di depurazione dei reflui urbani, dai quali confluiscono inevitabilmente verso le acque fluviali e/o costiere le quali risultano. In ragione di ciò, la valutazione degli effetti che la loro presenza può provocare sulla qualità dei sistemi di approvigionamento idrico e sulla biologia delle specie tipiche degli ecosistemi acquatici, ha classificato tali composti come una nuova classe di inquinanti emergenti, il cui impatto ambientale non risulta ancora del tutto arginato attraverso adeguate contromisure legislative. I farmaci sono sostanze bioattive progettate per avere effetti specifici a bassissime concentrazioni negli organismi target attraverso specifici meccanismi d’azione. Nel caso in cui i bersagli cellulari su cui agiscono siano evolutivamente conservati negli organismi non target, essi possono esercitare le proprie funzioni attraverso i medesimi meccanismi di regolazione fisiologica attivati nelle specie target, dando origine a effetti specifici, o anche aspecifici, nel caso in cui tali bersagli siano deputati alla regolazioni di funzioni differenti. Pertanto lo scopo del presente lavoro di tesi è stato quello di analizzare le possibili alterazioni di carattere fisiologico in individui di mitilo mediterraneo (Mytilus galloprovincialis) esposti a concentrazioni ambientali di fluoxetina, farmaco antidepressivo appartenente alla classe degli inibitori selettivi del riassorbimento presinaptico della serotonina (SSRI). Più nel dettaglio, a seguito di un’esposizione per 7 giorni a dosaggi compresi tra 0.03 e 300 ng/L di FX, sono stati analizzati i livelli intracellulari di AMPc e l’attività dell’enzima PKA nei diversi trattamenti sperimentali effettuati. Inoltre sono stati valutati i livelli di espressione genica del recettore serotoninergico 5HTmyt1 e della la P-glicoproteina (Pgp, gene ABCB1), trasportatore di membrana responsabile del sistema di detossificazione noto come Multi-xenobiotic resistance (MXR). Nella ghiandola digestiva, la FX causa una diminuzione statisticamente significativa dei livelli di AMPc, dell’attività della PKA e dell’espressione del gene ABCB1 rispetto al controllo. Al contrario nel mantello il farmaco non produce alterazioni dei livelli intracellulari di AMPc e dell’attività della PKA mentre si apprezza una sottoespressione del gene ABCB1 nei trattamenti a dosaggi intermedi. In entrambi i tessuti si nota un aumento dell’espressione genica di 5HTmyt1 alle minori concentrazioni di FX, mentre ai dosaggi più alti non si registrano alterazioni significative rispetto al controllo. Nel loro insieme i risultati indicano che nei mitili, concentrazioni ambientali di FX producono significative alterazioni di diversi parametri fisiologici attraverso una modulazione specifica dei medesimi bersagli molecolari coinvolti nella terapia umana. La riduzione dei livelli di AMPc/PKA apprezzata nella ghiandola digestiva risulta in linea con la funzione inibitoria svolta dal recettore 5HTmyt1 su tale via di trasduzione, mentre l’assenza di variazioni significative registrata nel mantello supporta l’ipotesi di un’interazione tra il sistema serotoninergico e catecolaminergico nella regolazione dei processi legati al ciclo riproduttivo che si verificano in tale tessuto. In conclusione, i dati dimostrano che l’espressione del gene codificante la proteina Pgp è regolata dalla FX attraverso uno specifico meccanismo d'azione AMPc-dipendente modulato dalla serotonina; tuttavia, è ipotizzabile anche un effetto non specifico indotto dalla FX stessa, per esempio attraverso l’induzione di stress ossidativo. Inoltre essi evidenziano la presenza di un meccanismo di regolazione retroattivo sulla espressione dei recettori 5HTmyt1 in funzione delle concentrazioni extracellulari di serotonina modulate dall’azione della FX.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’enzima IDO interviene nella via di degradazione del triptofano, essenziale per la vita cellulare; l’iperespressione di IDO favorisce la creazione di un microambiente immunotollerante. Nelle LAM IDO è funzionalmente attivo nelle cellule blastiche e determina l’acquisizione di un fenotipo regolatorio da parte delle cellule T alloreattive; l’espressione della proteina aumenta in modo consensuale con l’evoluzione clinica della patologia. Scopo della Tesi è indagare l’esistenza di una correlazione tra l’iperespressione di IDO da parte delle cellule leucemiche, le caratteristiche di rischio alla diagnosi e l’outcome dei pazienti. Sono stati esaminati 45 pazienti adulti affetti da LAM afferiti all’Istituto di Ematologia di Bologna. I pazienti sono stati stratificati a seconda di: età di insorgenza della leucemia, secondarietà a Mielodisplasia o radio chemioterapia, iperleucocitosi, citogenetica, biologia molecolare (sono state valutate le alterazioni a carico dei geni FLT3 ed NPM). I pazienti sono stati analizzati per l’espressione del gene IDO mediante RT-PCR, seguita da Western Blot, allo scopo di stabilire la presenza di una proteina attiva; successivamente si è proceduto a verificare l’esistenza di una correlazione tra l’espressione di IDO e le caratteristiche di rischio alla diagnosi per identificare una relazione tra l’espressione del gene ed un subset di pazienti a prognosi favorevole o sfavorevole. Dei 45 pazienti adulti affetti da LAM il 28,9% è risultato negativo per l’espressione di IDO, mentre il rimanente 71,1% è risultato positivo ed è stato suddiviso in tre ulteriori categorie, in base ai livelli di espressione. I dati non sembrano al momento suggerire l’esistenza di una correlazione tra l’espressione di IDO e le caratteristiche di rischio alla diagnosi. Nel gruppo di pazienti ad elevata espressione di IDO si riscontra un rate di resistenza alla chemioterapia di induzione più elevato, con una quota di pazienti resistenti pari al 71,4%, contro il 23,1% nel gruppo di pazienti IDO-negativi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scopo del nostro studio è quello di valutare i disturbi cognitivi in relazione al tasso di microembolia cerebrale in due gruppi di pazienti trattati per lesione carotidea asintomatica con endoarterectomia (CEA) o stenting (CAS). Comparando le due metodiche mediante l’utilizzo di risonanza magnetica in diffusione (DW-MRI), neuromarkers (NSE e S100β) e test neuropsicometrici. MATERIALE E METODI: 60 pazienti sono stati sottoposti a rivascolarizzazione carotidea (CEA n=32 e CAS n=28). Sono stati tutti valutati con DW-MRI e Mini-Mental State Examination (MMSE) test nel preoperatorio, a 24 ore, a 6 ed a 12 mesi dall’intervento. In tutti sono stati dosati i livelli sierici di NSE e S100β mediante 5 prelievi seriati nel tempo, quello basale nel preoperatorio, l’ultimo a 24 ore. L’ananlisi statistica è stata effettuata con test t di Student per confronti multipli per valori continui e con test χ2 quadro e Fisher per le variabili categoriche. Significatività P <0,05. RISULTATI: Non vi è stato alcun decesso. Un paziente del gruppo CAS ha presentato un ictus ischemico. In 6 pazienti CAS ed in 1 paziente CEA si sono osservate nuove lesioni subcliniche alla RMN-DWI post-operatoria (21,4% vs 3% p=0,03). Nel gruppo CAS le nuove lesioni presenti alla RMN sono risultate significativamente associate ad un declino del punteggio del MMSE (p=0,001). L’analisi dei livelli di NSE e S100β ha mostrato un significativo aumento a 24 ore nei pazienti CAS (P = .02). A 12 mesi i pazienti che avevano presentato nuove lesioni ischemiche nel post-operatorio hanno mostrato minor punteggio al MMSE, non statisticamente significativo. CONCLUSIONI: I neuromarkers in combinazione con MMSE e RMN-DWI possono essere utilizzati nella valutazione del declino cognitivo correlato a lesioni silenti nell’immediato postoperatorio di rivascolarizzazione carotidea. Quest’ultime dovrebbero essere valutate quindi non solo rispetto al tasso di mortalità e ictus, ma anche rispetto al tasso di microembolia.