690 resultados para Tecniche di enhancement, Impronte digitali, Riconoscimento biometrico
Resumo:
Uno dei principali ambiti di ricerca dell’intelligenza artificiale concerne la realizzazione di agenti (in particolare, robot) in grado di aiutare o sostituire l’uomo nell’esecuzione di determinate attività. A tal fine, è possibile procedere seguendo due diversi metodi di progettazione: la progettazione manuale e la progettazione automatica. Quest’ultima può essere preferita alla prima nei contesti in cui occorra tenere in considerazione requisiti quali flessibilità e adattamento, spesso essenziali per lo svolgimento di compiti non banali in contesti reali. La progettazione automatica prende in considerazione un modello col quale rappresentare il comportamento dell’agente e una tecnica di ricerca (oppure di apprendimento) che iterativamente modifica il modello al fine di renderlo il più adatto possibile al compito in esame. In questo lavoro, il modello utilizzato per la rappresentazione del comportamento del robot è una rete booleana (Boolean network o Kauffman network). La scelta di tale modello deriva dal fatto che possiede una semplice struttura che rende agevolmente studiabili le dinamiche tuttavia complesse che si manifestano al suo interno. Inoltre, la letteratura recente mostra che i modelli a rete, quali ad esempio le reti neuronali artificiali, si sono dimostrati efficaci nella programmazione di robot. La metodologia per l’evoluzione di tale modello riguarda l’uso di tecniche di ricerca meta-euristiche in grado di trovare buone soluzioni in tempi contenuti, nonostante i grandi spazi di ricerca. Lavori precedenti hanno gia dimostrato l’applicabilità e investigato la metodologia su un singolo robot. Lo scopo di questo lavoro è quello di fornire prova di principio relativa a un insieme di robot, aprendo nuove strade per la progettazione in swarm robotics. In questo scenario, semplici agenti autonomi, interagendo fra loro, portano all’emergere di un comportamento coordinato adempiendo a task impossibili per la singola unità. Questo lavoro fornisce utili ed interessanti opportunità anche per lo studio delle interazioni fra reti booleane. Infatti, ogni robot è controllato da una rete booleana che determina l’output in funzione della propria configurazione interna ma anche dagli input ricevuti dai robot vicini. In questo lavoro definiamo un task in cui lo swarm deve discriminare due diversi pattern sul pavimento dell’arena utilizzando solo informazioni scambiate localmente. Dopo una prima serie di esperimenti preliminari che hanno permesso di identificare i parametri e il migliore algoritmo di ricerca, abbiamo semplificato l’istanza del problema per meglio investigare i criteri che possono influire sulle prestazioni. E’ stata così identificata una particolare combinazione di informazione che, scambiata localmente fra robot, porta al miglioramento delle prestazioni. L’ipotesi è stata confermata applicando successivamente questo risultato ad un’istanza più difficile del problema. Il lavoro si conclude suggerendo nuovi strumenti per lo studio dei fenomeni emergenti in contesti in cui le reti booleane interagiscono fra loro.
Resumo:
Negli ultimi anni la ricerca nella cura dei tumori si è interessata allo sviluppo di farmaci che contrastano la formazione di nuovi vasi sanguigni (angiogenesi) per l’apporto di ossigeno e nutrienti ai tessuti tumorali, necessari per l’accrescimento e la sopravvivenza del tumore. Per valutare l’efficacia di questi farmaci antiangiogenesi esistono tecniche invasive: viene prelevato tramite biopsia un campione di tessuto tumorale, e tramite analisi microscopica si quantifica la densità microvascolare (numero di vasi per mm^2) del campione. Stanno però prendendo piede tecniche di imaging in grado di valutare l’effetto di tali terapie in maniera meno invasiva. Grazie allo sviluppo tecnologico raggiunto negli ultimi anni, la tomografia computerizzata è tra le tecniche di imaging più utilizzate per questo scopo, essendo in grado di offrire un’alta risoluzione sia spaziale che temporale. Viene utilizzata la tomografia computerizzata per quantificare la perfusione di un mezzo di contrasto all’interno delle lesioni tumorali, acquisendo scansioni ripetute con breve intervallo di tempo sul volume della lesione, a seguito dell’iniezione del mezzo di contrasto. Dalle immagini ottenute vengono calcolati i parametri perfusionali tramite l’utilizzo di differenti modelli matematici proposti in letteratura, implementati in software commerciali o sviluppati da gruppi di ricerca. Al momento manca un standard per il protocollo di acquisizione e per l’elaborazione delle immagini. Ciò ha portato ad una scarsa riproducibilità dei risultati intra ed interpaziente. Manca inoltre in letteratura uno studio sull’affidabilità dei parametri perfusionali calcolati. Il Computer Vision Group dell’Università di Bologna ha sviluppato un’interfaccia grafica che, oltre al calcolo dei parametri perfusionali, permette anche di ottenere degli indici sulla qualità dei parametri stessi. Questa tesi, tramite l’analisi delle curve tempo concentrazione, si propone di studiare tali indici, di valutare come differenti valori di questi indicatori si riflettano in particolari pattern delle curve tempo concentrazione, in modo da identificare la presenza o meno di artefatti nelle immagini tomografiche che portano ad un’errata stima dei parametri perfusionali. Inoltre, tramite l’analisi delle mappe colorimetriche dei diversi indici di errore si vogliono identificare le regioni delle lesioni dove il calcolo della perfusione risulta più o meno accurato. Successivamente si passa all’analisi delle elaborazioni effettuate con tale interfaccia su diversi studi perfusionali, tra cui uno studio di follow-up, e al confronto con le informazioni che si ottengono dalla PET in modo da mettere in luce l’utilità che ha in ambito clinico l’analisi perfusionale. L’intero lavoro è stato svolto su esami di tomografia computerizzata perfusionale di tumori ai polmoni, eseguiti presso l’Unità Operativa di Diagnostica per Immagini dell’IRST (Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori) di Meldola (FC). Grazie alla collaborazione in atto tra il Computer Vision Group e l’IRST, è stato possibile sottoporre i risultati ottenuti al primario dell’U. O. di Diagnostica per Immagini, in modo da poterli confrontare con le considerazioni di natura clinica.
Resumo:
Obiettivo di questa tesi è sviscerare i concetti fondamentali legati al SEO, in particolar modo dal punto di vista delle aziende italiane: l’evoluzione di questo business nel nostro territorio, gli strumenti e le tecniche di ottimizzazione impiegati nella realizzazione dei siti internet, i capitali, umani ed economici, che alimentano questo mercato in Italia e all’estero e i fattori che oggigiorno sono considerati di fondamentale importanza per ottenere visibilità nei motori di ricerca.
Resumo:
Background: l’epilessia è una malattia cerebrale che colpisce oggigiorno circa l’1% della popolazione mondiale e causa, a chi ne soffre, convulsioni ricorrenti e improvvise che danneggiano la vita quotidiana del paziente. Le convulsioni sono degli eventi che bloccano istantaneamente la normale attività cerebrale; inoltre differiscono tra i pazienti e, perciò, non esiste un trattamento comune generalizzato. Solitamente, medici neurologi somministrano farmaci, e, in rari casi, l’epilessia è trattata con operazioni neurochirurgiche. Tuttavia, le operazioni hanno effetti positivi nel ridurre le crisi, ma raramente riescono a eliminarle del tutto. Negli ultimi anni, nel campo della ricerca scientifica è stato provato che il segnale EEG contiene informazioni utili per diagnosticare l'arrivo di un attacco epilettico. Inoltre, diversi algoritmi automatici sono stati sviluppati per rilevare automaticamente le crisi epilettiche. Scopo: lo scopo finale di questa ricerca è l'applicabilità e l'affidabilità di un dispositivo automatico portatile in grado di rilevare le convulsioni e utilizzabile come sistema di monitoraggio. L’analisi condotta in questo progetto, è eseguita con tecniche di misure classiche e avanzate, in modo tale da provare tecnicamente l’affidabilità di un tale sistema. La comparazione è stata eseguita sui segnali elettroencefalografici utilizzando due diversi sistemi di acquisizione EEG: il metodo standard utilizzato nelle cliniche e il nuovo dispositivo portatile. Metodi: è necessaria una solida validazione dei segnali EEG registrati con il nuovo dispositivo. I segnali saranno trattati con tecniche classiche e avanzate. Dopo le operazioni di pulizia e allineamento, verrà utilizzato un nuovo metodo di rappresentazione e confronto di segnali : Bump model. In questa tesi il metodo citato verrà ampiamente descritto, testato, validato e adattato alle esigenze del progetto. Questo modello è definito come un approccio economico per la mappatura spazio-frequenziale di wavelet; in particolare, saranno presenti solo gli eventi con un’alta quantità di energia. Risultati: il modello Bump è stato implementato come toolbox su MATLAB dallo sviluppatore F. Vialatte, e migliorato dall’Autore per l’utilizzo di registrazioni EEG da sistemi diversi. Il metodo è validato con segnali artificiali al fine di garantire l’affidabilità, inoltre, è utilizzato su segnali EEG processati e allineati, che contengono eventi epilettici. Questo serve per rilevare la somiglianza dei due sistemi di acquisizione. Conclusioni: i risultati visivi garantiscono la somiglianza tra i due sistemi, questa differenza la si può notare specialmente comparando i grafici di attività background EEG e quelli di artefatti o eventi epilettici. Bump model è uno strumento affidabile per questa applicazione, e potrebbe essere utilizzato anche per lavori futuri (ad esempio utilizzare il metodo di Sincronicità Eventi Stocas- tici SES) o differenti applicazioni, così come le informazioni estratte dai Bump model potrebbero servire come input per misure di sincronicità, dalle quali estrarre utili risultati.
Resumo:
La presente tesi è dedicata al riuso nel software. Eccettuata un'introduzione organica al tema, l'analisi è a livello dei meccanismi offerti dai linguaggi di programmazione e delle tecniche di sviluppo, con speciale attenzione rivolta al tema della concorrenza. Il primo capitolo fornisce un quadro generale nel quale il riuso del software è descritto, assieme alle ragioni che ne determinano l'importanza e ai punti cruciali relativi alla sua attuazione. Si individuano diversi livelli di riuso sulla base dell'astrazione e degli artefatti in gioco, e si sottolinea come i linguaggi contribuiscano alla riusabilità e alla realizzazione del riuso. In seguito, viene esplorato, con esempi di codice, il supporto al riuso da parte del paradigma ad oggetti, in termini di incapsulamento, ereditarietà, polimorfismo, composizione. La trattazione prosegue analizzando differenti feature – tipizzazione, interfacce, mixin, generics – offerte da vari linguaggi di programmazione, mostrando come esse intervengano sulla riusabilità dei componenti software. A chiudere il capitolo, qualche parola contestualizzata sull'inversione di controllo, la programmazione orientata agli aspetti, e il meccanismo della delega. Il secondo capitolo abbraccia il tema della concorrenza. Dopo aver introdotto l'argomento, vengono approfonditi alcuni significativi modelli di concorrenza: programmazione multi-threaded, task nel linguaggio Ada, SCOOP, modello ad Attori. Essi vengono descritti negli elementi fondamentali e ne vengono evidenziati gli aspetti cruciali in termini di contributo al riuso, con esempi di codice. Relativamente al modello ad Attori, viene presentata la sua implementazione in Scala/Akka come caso studio. Infine, viene esaminato il problema dell'inheritance anomaly, sulla base di esempi e delle tre classi principali di anomalia, e si analizza la suscettibilità del supporto di concorrenza di Scala/Akka a riscontrare tali problemi. Inoltre, in questo capitolo si nota come alcuni aspetti relativi al binomio riuso/concorrenza, tra cui il significato profondo dello stesso, non siano ancora stati adeguatamente affrontati dalla comunità informatica. Il terzo e ultimo capitolo esordisce con una panoramica dell'agent-oriented programming, prendendo il linguaggio simpAL come riferimento. In seguito, si prova ad estendere al caso degli agenti la nozione di riuso approfondita nei capitoli precedenti.
Resumo:
I sistemi mobili rappresentano una classe di sistemi distribuiti caratterizzata dalla presenza di dispositivi portatili eterogenei quali PDA, laptop e telefoni cellulari che interagiscono tra loro mediante una rete di interconnessione wireless. Una classe di sistemi mobili di particolare interesse è costituita dai sistemi basati sul modello di interazione publish/subscribe. Secondo tale schema, i nodi all'interno di una rete possono assumere due ruoli differenti: i produttori di informazione, chiamati publisher, ed i consumatori di informazione, chiamati subscriber. Tipicamente, l'interazione tra essi è mediata da un gestore di eventi che indirizza correttamente le informazioni ricevute dai publisher verso i subscriber interessati, sulla base degli interessi espressi da questi ultimi tramite sottoscrizioni. Nella progettazione di sistemi mobili, a differenza di quelli tradizionali basati su nodi fissi, bisogna tenere conto di problemi quali la scarsa capacità computazionale dei dispositivi e la limitata larghezza di banda delle reti wireless. All'interno di tale ambito, stanno recentemente assumendo sempre maggiore importanza i sistemi context-aware, ovvero sistemi mobili che sfruttano i dati provenienti dall'ambiente circostante e dai dispositivi stessi per adattare il proprio comportamento e notificare agli utenti la presenza di informazioni potenzialmente utili. Nello studio di questi sistemi, si è notato che i nodi che si trovano nella stessa area geografica generano tipicamente delle sottoscrizioni che presentano tra loro un certo grado di similarità e coperture parziali o totali. Il gruppo di ricerca del DEIS dell’Università di Bologna ha sviluppato un'infrastruttura di supporto per sistemi mobili context-aware, chiamata SALES. Attualmente il sistema progettato non considera le similarità delle sottoscrizioni e quindi non sfrutta opportunamente tale informazione. In questo contesto si rende necessario l'adozione di opportune tecniche di aggregazione delle sottoscrizioni atte ad alleggerire la computazione dei nodi mobili e le comunicazioni tra loro. Il lavoro presentato in questa tesi sarà finalizzato alla ricerca, all'adattamento ed all'implementazione di una tecnica di aggregazione delle sottoscrizioni. Tale tecnica avrà lo scopo di rilevare e sfruttare le similarità delle sottoscrizioni ricevute dal sistema al fine di ridurne il numero; in questo modo, quando un nodo riceverà un dato, il processo di confronto tra l'insieme delle sottoscrizioni memorizzate e il dato ricevuto sarà più leggero, consentendo un risparmio di risorse computazionali. Inoltre, adattando tali tecniche, sarà possibile modulare anche il traffico dati scaturito dalle risposte alle sottoscrizioni. La struttura di questa tesi prevede un primo capitolo sui sistemi context-aware, descrivendone le principali caratteristiche e mettendo in luce le problematiche ad essi associate. Il secondo capitolo illustra il modello di comunicazione Publish/Subscribe, modello di riferimento per i moderni sistemi context-aware e per i sistemi mobili in generale. Il terzo capitolo descrive l'infrastruttura SALES sulla quale si è progettata, implementata e testata la soluzione proposta in questa tesi. Il quarto capitolo presenta le principali tecniche di aggregazione delle sottoscrizioni e spiega come possono essere adattate al contesto di questa tesi. Il quinto capitolo effettua l'analisi dei requisiti per comprendere meglio il comportamento della soluzione; seguono la progettazione e l’implementazione della soluzione su SALES. Infine, il sesto capitolo riporta in dettaglio i risultati ottenuti da alcuni degli esperimenti effettuati e vengono messi a confronto con quelli rilevati dal sistema di partenza.
Resumo:
Nel presente lavoro di tesi magistrale sono stati depositati e caratterizzati film sottili (circa 10 nm) di silicio amorfo idrogenato (a-Si:H), studiando in particolare leghe a basso contenuto di ossigeno e carbonio. Tali layer andranno ad essere implementati come strati di passivazione per wafer di Si monocristallino in celle solari ad eterogiunzione HIT (heterojunctions with intrinsic thin layer), con le quali recentemente è stato raggiunto il record di efficienza pari a 24.7% . La deposizione è avvenuta mediante PECVD (plasma enhanced chemical vapour deposition). Tecniche di spettroscopia ottica, come FT-IR (Fourier transform infrared spectroscopy) e SE (spettroscopic ellipsometry) sono state utilizzate per analizzare le configurazioni di legami eteronucleari (Si-H, Si-O, Si-C) e le proprietà strutturali dei film sottili: un nuovo metodo è stato implementato per calcolare i contenuti atomici di H, O e C da misure ottiche. In tal modo è stato possibile osservare come una bassa incorporazione (< 10%) di ossigeno e carbonio sia sufficiente ad aumentare la porosità ed il grado di disordine a lungo raggio del materiale: relativamente a quest’ultimo aspetto, è stata sviluppata una nuova tecnica per determinare dagli spettri ellisometrici l’energia di Urbach, che esprime la coda esponenziale interna al gap in semiconduttori amorfi e fornisce una stima degli stati elettronici in presenza di disordine reticolare. Nella seconda parte della tesi sono stati sviluppati esperimenti di annealing isocrono, in modo da studiare i processi di cristallizzazione e di effusione dell’idrogeno, correlandoli con la degradazione delle proprietà optoelettroniche. L’analisi dei differenti risultati ottenuti studiando queste particolari leghe (a-SiOx e a-SiCy) ha permesso di concludere che solo con una bassa percentuale di ossigeno o carbonio, i.e. < 3.5 %, è possibile migliorare la risposta termica dello specifico layer, ritardando i fenomeni di degradazione di circa 50°C.
Resumo:
Attualmente il panorama informatico è dominato dai dispositivi mobile: smartphone e tablet pc dominano incontrastati la scena del mercato elettronico. Questo comporta un radicale ripensamento e cambiamento del software, le web app e le mobile application richiedono infatti una sempre maggiore reattività dell’interfaccia utente, la persistente connessione a Internet e l’interazione con una moltitudine di dispositivi esterni. Il progettista di software deve oggi far fronte a tutta una serie di problematiche, l’aumentata complessità dei sistemi e i sempre più ristretti tempi di sviluppo e consegna richiedono compromessi tra la semplicità delle tecniche di progettazione e l’efficienza del prodotto ottenuto. Le architetture ad eventi in primis, unitamente al paradigma di programmazione asincrona, si pongono come soluzione ottimale a queste esigenze. L’obbiettivo principale di questa tesi è quello di offrire una panoramica generale sullo stato dell’arte delle architetture ad eventi focalizzandosi sul ruolo che esse assumono nel contesto delle applicazioni moderne, intendendo principalmente con questo termine le web application e le mobile application. Partendo dal concetto di programmazione sincrona e parallela si giunge a descrivere un terzo modello, il modello asincrono, di fondamentale importanza per i sistemi event-driven. Utilizzando come principale linguaggio di riferimento JavaScript si affrontano le problematiche legate alla stesura del codice per la gestione degli eventi, l’asincronicità intrinseca degli eventi e l’utilizzo di funzioni di callback portano a produrre codice di difficile lettura e manutenzione. Si analizzano quindi in dettaglio i pattern fondamentali e le tecniche attualmente utilizzate per l’ottimizzazione della gestione del codice e delle problematiche esposte fornendo numerosi esempi esplicativi.
Resumo:
Una delle grandi sfide della medicina moderna e dell’ingegneria biomedica è rappresentata dalla rigenerazione e il recupero dei tessuti nervosi. I danni al Sistema Nervoso Centrale (SNC) e Periferico (SNP) provocano effetti irreversibili e influiscono sulla qualità della vita dei pazienti. L’ingegneria tissutale è stata definita come “un campo interdisciplinare che applica i principi dell’ingegneria e delle scienze della vita per lo sviluppo di sostituti biologici che ripristinino, mantengano, o migliorino la funzione di un tessuto o di un intero organo” (Langer R et al, 1993). Lo sviluppo dei biomateriali, i progressi scientifici nel campo delle cellule staminali e dei fattori di crescita, nonché le migliorie nelle tecniche di differenziazione e del rilascio dei farmaci offrono nuove opportunità di sviluppo terapeutico. Sono stati infatti creati tessuti in laboratorio attraverso la combinazione di matrici extracellulari ingegnerizzate, comunemente definite scaffold, cellule e molecole biologicamente attive. Tali “impalcature”, forniscono un supporto fisico e biochimico alla crescita delle cellule nervose. In quest’ottica si configura come essenziale il contributo della seta e di una sua particolare molecola: la fibroina. Quest’ultima grazie alle specifiche caratteristiche di biocompatibilità, lenta degradabilità e alle notevoli proprietà meccaniche, è stata ampiamente studiata, in anni recenti, per nuove applicazioni in ambito biomedico, come nel caso dell’ingegneria dei tessuti e del rilascio di farmaci. La fibroina della seta utilizzabile in vari formati quali film, fibre, reti, maglie, membrane, gel e spugne supporta l'adesione, la proliferazione e la differenziazione in vitro di diversi tipi di cellule. In particolare studi recenti indicano che la seta ha una buona compatibilità per la crescita di cellule neuronali dell'ippocampo. In questo elaborato saranno presentate le caratteristiche della fibroina della seta come biomateriale, con particolare riferimento all’ingegnerizzazione e al processo di fabbricazione degli scaffold finalizzati al supporto della rigenerazione cellulare – neuronale in caso di insulti traumatici, acuti e/o cronici del Sistema Nervoso.
Resumo:
Le tecniche di next generation sequencing costituiscono un potente strumento per diverse applicazioni, soprattutto da quando i loro costi sono iniziati a calare e la qualità dei loro dati a migliorare. Una delle applicazioni del sequencing è certamente la metagenomica, ovvero l'analisi di microorganismi entro un dato ambiente, come per esempio quello dell'intestino. In quest'ambito il sequencing ha permesso di campionare specie batteriche a cui non si riusciva ad accedere con le tradizionali tecniche di coltura. Lo studio delle popolazioni batteriche intestinali è molto importante in quanto queste risultano alterate come effetto ma anche causa di numerose malattie, come quelle metaboliche (obesità, diabete di tipo 2, etc.). In questo lavoro siamo partiti da dati di next generation sequencing del microbiota intestinale di 5 animali (16S rRNA sequencing) [Jeraldo et al.]. Abbiamo applicato algoritmi ottimizzati (UCLUST) per clusterizzare le sequenze generate in OTU (Operational Taxonomic Units), che corrispondono a cluster di specie batteriche ad un determinato livello tassonomico. Abbiamo poi applicato la teoria ecologica a master equation sviluppata da [Volkov et al.] per descrivere la distribuzione dell'abbondanza relativa delle specie (RSA) per i nostri campioni. La RSA è uno strumento ormai validato per lo studio della biodiversità dei sistemi ecologici e mostra una transizione da un andamento a logserie ad uno a lognormale passando da piccole comunità locali isolate a più grandi metacomunità costituite da più comunità locali che possono in qualche modo interagire. Abbiamo mostrato come le OTU di popolazioni batteriche intestinali costituiscono un sistema ecologico che segue queste stesse regole se ottenuto usando diverse soglie di similarità nella procedura di clustering. Ci aspettiamo quindi che questo risultato possa essere sfruttato per la comprensione della dinamica delle popolazioni batteriche e quindi di come queste variano in presenza di particolari malattie.
Resumo:
Il primo passo verso un progetto di restauro è costituito dal riconoscimento dell’opera d’arte, che è ciò che spinge al desiderio di trasmetterla al futuro. Nel momento in cui ad un oggetto si riconosce una valenza storica e artistica, questo assume per la collettività un valore che va conservato e potenziato. Attraverso una approfondita conoscenza delle vicende che hanno interessato la villa dal momento della sua edificazione fino ai giorni nostri, è stato possibile realizzare un progetto che mira alla sua conservazione e alla valorizzazione.
Resumo:
Nel presente lavoro di tesi magistrale sono stati depositati e caratterizzati sottili film di ossido di alluminio, Al2O3, (di spessore compreso tra 3-30 nm) su un substrato di FZ-Si drogato p. La deposizione è avvenuta mediante plasma ALD (Atomic Layer Depostion). La tecnica spettroscopica EPR (Electron Paramagnetic Resonance) è stata utilizzata per studiare l’interfaccia Si/Al2O3 con lo scopo di scoprire l’origine della formazione di densità di carica negativa Qf all’interfaccia: tale carica negativa induce una passivazione per effetto di campo ed è quindi la ragione per cui il dielettrico Al2O3 risulta essere un ottimo materiale passivante. Si è deciso di variare alcuni parametri, come lo spessore dello strato di Al2O3, lo spessore dello strato intermedio di ossido di silicio, depositato mediante ossidazione termica (dry thermal oxidation), e la superficie del substrato di silicio. Sono stati realizzati cinque differenti gruppi di campioni: per ciascuno di essi sono state impiegate varie tecniche di caratterizzazione, come la QSSPC (Quasi Steady State Photoconuctance) e la tecnica di spettroscopia ottica SE (spettroscopic ellipsometry). Per ogni gruppo sono stati riportati gli spettri EPR ottenuti ed i rispettivi fit, da cui è stato possibile risalire ai fattori giromagnetici di spin g, riportati in tabelle con le loro possibili attribuzioni. E’ stato dimostrato che la presenza di uno strato di ossido di silicio tra il substrato di silicio e lo strato di ossido di alluminio risulta essere fondamentale per la formazione di densità di carica negativa all’interfaccia: aumentando lo spessore dello strato di SiOx (nel range 1-30 nm) si assiste ad una diminuzione di carica negativa Qf. Analizzando gli spettri EPR, è stato possibile concludere che all’interfaccia Si/Al2O3 sono presenti difetti caratteristici dell’interfaccia Si/SiOx. Le nostre osservazioni, dunque, sono coerenti con la formazione di uno strato di ossido di silicio tra Si e Al2O3.
Resumo:
Il Mar Adriatico presenta una grande ricchezza di diversità di specie ittiche, molte delle quali sono rilevanti dal punto di vista commerciale, altre rappresentano un contributo alla complessità biologica dell’ambiente. In questo lavoro di tesi tecniche di analisi multivariata sono state utilizzate per analizzare la composizione in specie ittiche demersali dell’Alto e Medio Adriatico e la diversità, per arrivare a delineare un quadro generale di tali comunità. I dati utilizzati sono stati raccolti nelle campagne GRUND effettuate in Adriatico dal 1982 al 2007 nell’area delle acque nazionali italiane ed internazionali, al limite delle acque croate e slovene. La Cluster Analysis effettuata sui dati di abbondanza (kg/h) delle specie ha permesso di definire quattro assemblaggi principali di specie (40% di similarità) associati all’area di costa, all’area costiera fuori Venezia, a un area detritica e a un area più profonda. All’interno di questi assemblaggi, stabili per tutti gli anni, sono stati ritrovate delle associazioni più ristrette (similarità del 50%). Profondità e tipologia di fondale sembrano essere i fattori determinanti la divisione di questi assemblaggi. Tali risultati sono stati confermati anche dall’analisi di ordinamento non metrico MDS. Con l’analisi ANOSIM si è cercato di vedere se ci sono differenze significative tra gli assemblaggi annuali delle aree identificate, e se gli assemblaggi di specie variano significativamente nel corso degli anni all’interno di ciascuna area. Con l’analisi SIMPER si sono identificate quelle specie caratterizzanti gli assemblaggi e le specie che sono responsabili della diversità tra aree. Sono stati calcolati gli indici di diversità per indagare la diversità e la variabilità temporale delle comunità demersali che caratterizzano le quattro aree principali. E’ stata fatta un’analisi temporale delle abbondanze medie delle specie commerciali maggiormente rappresentative dei quattro assemblaggi principali ritrovati, e un’analisi su come variano le taglie nel corso degli anni.
Resumo:
L'elaborato presenta le tecniche di apprendimento principali utilizzate in robotica: l'apprendimento per rinforzo e l'apprendimento per dimostrazione. Nell'ultimo capitolo, invece, si vuole presentare come l'applicazione congiunta di queste tecniche permetta di risolvere problemi di interazione con l'ambiente in modo molto efficiente.
Resumo:
Questo elaborato si propone di introdurre il lettore all’universo di Andrea Camilleri, con particolare riferimento alle peculiarità linguistiche che contraddistinguono le sue opere. La lingua da lui utilizzata risulta in una combinazione di dialetto siciliano, italiano standard et una lingua familiare semi-inventata, a cui si aggiunge la varietà di registri impiegati, che investono tutte le variazioni del repertorio linguistico italiano. Questo tipo di scrittura complica il lavoro del traduttore, in quanto poche sono le lingue straniere che presentano una varietà dialettale simile a quella italiana. In particolare la lingua francese, profondamente legata alla norma e al bon usage, risulta poco elastica e quindi restia agli “sconvolgimenti” che invece Camilleri apporta, con risultati divertenti e apprezzati. L’opera oggetto del nostro studio, La stagione della caccia, insiste particolarmente sulla varietà diatopica, varietà che la traduttrice francese Dominique Vittoz ha deciso di preservare impiegando una parlata regionale poco conosciuta, ma appartenente al suo ambito familiare: il lionese. In tal modo, ricorrendo a tecniche di equivalenza e di compensazione, la traduttrice riesce abilmente e rendere in francese la stessa espressività del testo italiano, caratterizzando i personaggi attraverso il loro modo di esprimersi. Lo scopo del nostro lavoro è quello di dimostrare, attraverso l’analisi di alcune parti del testo, che la variazione diatopica è presente tanto nell’opera originale quanto nella sua traduzione. Inoltre, questa analisi ci permetterà di confrontare la situazione sociolinguistica di Italia e Francia, e di passare in rassegna i problemi e le strategie della traduzione in prospettiva sociolinguistica, con particolare attenzione alla traduzione di un linguaggio non standard. Una questione che continua a suscitare numerosi dibattiti e affascina traduttori, autori e non solo.