327 resultados para superfici di Riemann compatte divisori teorema di Riemann-Roch immersioni nello spazio proiettivo


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio si occupa di indagare lo stato delle popolazioni di alici, Engraulis encrasicolus, e sardine, Sardina pilchardus, presenti nel Mar Adriatico Centrale e Settentrionale attraverso l’utilizzo di metodi di dinamica di popolazione. L’attenzione per queste specie è dovuta alla loro importanza commerciale; sono, infatti, specie “target” della flotta peschereccia italiana, in particolare nell’area adriatica. I metodi di dinamica di popolazione sono uno degli aspetti più importanti delle scienze della pesca. Attraverso lo stock assessment si possono acquisire informazioni sull’abbondanza in mare delle risorse nel tempo e nello spazio, nonché sulla mortalità dovuta all’attività di pesca, che sono di primaria importanza per l’adozione di misure gestionali. I metodi di dinamica di popolazione esaminati e confrontati in questa tesi sono stati due: Virtual Population Analysis (VPA) e Integrated Catch-at-Age Analysis (ICA). Prima, però, è stato necessario esaminare le modalità con cui ottenere i dati di “input”, quali: tassi di crescita delle specie, mortalità naturale, sforzo di pesca, dati di cattura. Infine, è stato possibile ricostruire nel tempo la storia dello stock in questione e il suo stato attuale, dando indicazioni per lo sfruttamento futuro in un’ottica di conservazione dello stock stesso. Attraverso la determinazione della curva di crescita si sono potuti ottenere i parametri di crescita delle specie in esame, necessari per definire i tassi di mortalità naturale. L’abbondanza di questi stock è stata valutata con i programmi Age Length Key (ALK) e Iterative Age Length Key (IALK). Nei programmi di stock assessment utilizzati si è preferito utilizzare la stima di abbondanza calcolata con il primo metodo, in quanto più rappresentativo dello stock in esame. Un parametro di fondamentale importanza e di difficile stima è la mortalità; in particolare, in questo studio ci siamo occupati di determinare la mortalità naturale. Questa è stata determinata utilizzando due programmi: ProdBiom (Abella et al., 1998) e il sistema ideato da Gislason et al. (2008). Nonostante l’approccio conservativo suggerisca l’utilizzo dei valori ricavati da ProdBiom, in quanto più bassi, si è preferito utilizzare i tassi di mortalità naturale ricavati dalla seconda procedura. Questa preferenza è stata determinata dal fatto che il programma ProdBiom consegna indici di mortalità naturale troppo bassi, se confrontati con quelli presentati in letteratura per le specie in esame. Inoltre, benché nessuno dei due programmi sia stato costruito appositamente per le specie pelagiche, è comunque preferibile la metodologia ideata da Gislason et al. (2008), in quanto ottenuta da un esame di 367 pubblicazioni, in alcune delle quali erano presenti dati per queste specie. Per quanto riguarda i dati di cattura utilizzati in questo lavoro per il calcolo della Catch Per Unit Effort (CPUE, cioè le catture per unità di sforzo), si sono utilizzati quelli della marineria di Porto Garibaldi, in quanto questa vanta una lunga serie temporale di dati, dal 1975 ad oggi. Inoltre, in questa marineria si è sempre pescato senza imposizione di quote e con quantitativi elevati. Determinati questi dati è stato possibile applicare i programmi di valutazione degli stock ittici: VPA e ICA. L’ICA risulta essere più attendibile, soprattutto per gli anni recenti, in quanto prevede un periodo nel quale la selettività è mantenuta costante, riducendo i calcoli da fare e, di conseguenza, diminuendo gli errori. In particolare, l’ICA effettua i suoi calcoli considerando che i dati di cattura e gli indici di “tuning” possono contenere degli errori. Nonostante le varie differenze dei programmi e le loro caratteristiche, entrambi concordano sullo stato degli stock in mare. Per quanto riguarda l’alice, lo stock di questa specie nel Mar Adriatico Settentrionale e Centrale, altamente sfruttato in passato, oggi risulta moderatamente sfruttato in quanto il livello di sfruttamento viene ottenuto con un basso livello di sforzo di pesca. Si raccomanda, comunque, di non incrementare lo sforzo di pesca, in modo da non determinare nuove drastiche diminuzioni dello stock con pesanti conseguenze per l’attività di pesca. Le sardine, invece, presentano un trend diverso: dalla metà degli anni ottanta lo stock di Sardina pilchardus ha conosciuto un continuo e progressivo declino, che solo nell’ultimo decennio mostra un’inversione di tendenza. Questo, però, non deve incoraggiare ad aumentare lo pressione di pesca, anzi bisogna cercare di mantenere costante lo sforzo di pesca al livello attuale in modo da permettere il completo ristabilimento dello stock (le catture della flotta italiana sono, infatti, ancora relativamente basse). Questo lavoro, nonostante i vari aspetti da implementare (quali: il campionamento, le metodologie utilizzate, l’introduzione di aspetti non considerati, come ad es. gli scarti,… etc.) e le difficoltà incontrate nel suo svolgimento, ha fornito un contributo di approfondimento sugli spinosi aspetti della definizione del tasso di mortalità naturale, individuando una procedura più adatta per stimare questo parametro. Inoltre, ha presentato l’innovativo aspetto del confronto tra i programmi ICA e VPA, mostrando una buon accordo dei risultati ottenuti. E’ necessario, comunque, continuare ad approfondire questi aspetti per ottenere valutazioni sempre più precise e affidabili, per raggiungere una corretta gestione dell’attività di pesca e ai fini della preservazione degli stock stessi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il distretto è un luogo relazionale dinamico dove le imprese danno luogo a differenti comportamenti economici di vario genere e natura, cooperando in un certo senso per lo sviluppo e la crescita del distretto stesso. In un primo momento di formazione del distretto si sono delineati comportamenti di tipo path dependent per vantaggi economici dovuti alla distribuzione delle imprese nel territorio, ma con il tempo si sono cominciati ad avere comportamenti espansionistici differenti sia dall'interno che dall'esterno del distretto influendo direttamente sulla struttura del stesso. É ragionevole dunque pensare che gli attori guardino al rapporto “locale/globale” con una sorta di "strabismo", da un lato leggendo il distretto (dall’interno come dall’esterno) come un luogo privilegiato per la formazione di economie di prossimità, dall’altro puntando a disporre le catene produttive nello spazio globale, alla ricerca dei vantaggi derivanti da un minor costo del lavoro o dalla immediata prossimità dei mercati di sbocco. il distretto viene dunque attraversato da dinamiche che lo globalizzano ma, al contempo, ne preservano (almeno per ora) la specificità. Non è più possibile leggere la sua forma economica solo nella logica della embeddedness, e non sarebbe certo corretto farlo solo in chiave di openness. Si tratta dunque di interrogarsi sul rapporto più di integrazione/complementarità che di contrapposizione fra openness ed embeddedness. In questa tesi verrà descritto un metodo d'approccio per dare un valore al fenomeno di Openness e Embeddedness presente nel distretto partendo da un dataset di dati relazionali ricavati da due database economici Amadeus e Aida. Non essendo possibile trovare pubblicamente dati sulle reti di fornitura delle singole aziende, siamo partiti dai dati relazionali di cinque aziende “seme”, ed attraverso una ricerca ricorsiva nelle relazioni di azionariato/partecipazione, siamo riusciti ad ottenere un campione di analisi che ci permette di mettere in luce tramite la custer analysis le principali tipologie di reti di imprese presenti nel distretto ed estese nello spazio globale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’integrazione multisensoriale è la capacità del sistema nervoso di utilizzare molteplici sorgenti sensoriali. Una tra le più studiate forme di integrazione è quella tra informazioni visive ed acustiche. La capacità di localizzare uno stimolo acustico nello spazio è un processo meno accurato ed affidabile della localizzazione visiva, di conseguenza, un segnale visivo è spesso in grado di “catturare” (ventriloquismo) o di incrementare (enhancement multisensoriale) la performance di localizzazione acustica. Numerose evidenze sperimentali hanno contribuito ad individuare i processi neurali e le aree cerebrali alla base dei fenomeni integrativi; in particolare, un importante contributo viene dallo studio su soggetti con lesioni cerebrali. Tuttavia molti aspetti sui possibili meccanismi coinvolti restano ancora da chiarire. Obiettivo di questa tesi è stato lo sviluppo di un modello matematico di rete neurale per fare luce sui meccanismi alla base dell’interazione visuo-acustica e dei suoi fenomeni di plasticità. In particolare, il modello sviluppato è in grado di riprodurre condizioni che si verificano in-vivo, replicando i fenomeni di ventriloquismo ed enhancement in diversi stati fisiopatologici e interpretandoli in termini di risposte neurali e reciproche interazione tra i neuroni. Oltre ad essere utile a migliorare la comprensione dei meccanismi e dei circuiti neurali coinvolti nell’integrazione multisensoriale, il modello può anche essere utile per simulare scenari nuovi, con la possibilità di effettuare predizioni da testare in successivi esperimenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La dieta, nell’antica medicina greca, rappresentava il complesso delle norme di vita, come l’alimentazione, l’attività fisica, il riposo, atte a mantenere lo stato di salute di una persona. Al giorno d’oggi le si attribuisce un significato fortemente legato all’alimentazione, puo` riferirsi al complesso di cibi che una persona mangia abitualmente oppure, con un messaggio un po' più moderno, ad una prescrizione di un regime alimentare da parte di un medico. Ogni essere umano mangia almeno tre volte al giorno, ognuno in base al proprio stile di vita, cultura, età, etc. possiede differenti abitudini alimentari che si ripercuotono sul proprio stato di salute. Inconsciamente tutti tengono traccia degli alimenti mangiati nei giorni precedenti, chi più chi meno, cercando di creare quindi una pianificazione di cosa mangiare nei giorni successivi, in modo da variare i pasti o semplicemente perchè si segue un regime alimentare particolare per un certo periodo. Diventa quindi fondamentale tracciare questa pianificazione, in tal modo si puo' tenere sotto controllo la propria alimentazione, che è in stretta relazione con il proprio stato di salute e stress, e si possono applicare una serie di aggiustamenti dove necessario. Questo è quello che cerca di fare il “Menu Planning”, offrire una sorta di guida all’alimentazione, permettendo così di aver sotto controllo tutti gli aspetti legati ad essa. Si pensi, ad esempio, ai prezzi degli alimenti, chiunque vorrebbe minimizzare la spesa, mangiare quello che gli piace senza dover per forza rinunciare a quale piccolo vizio quotidiano. Con le tecniche di “Menu Planning” è possibile avere una visione di insieme della propria alimentazione. La prima formulazione matematica del “Menu Planning” (allora chiamato diet problem) nacque durante gli anni ’40, l’esercito Americano allora impegnano nella Seconda Guerra Mondiale voleva abbassare i costi degli alimenti ai soldati mantenendo però inalterata la loro dieta. George Stingler, economista americano, trovò una soluzione, formulando un problema di ottimizzazione e vincendo il premio Nobel in Economia nel 1982. Questo elaborato tratta dell’automatizzazione di questo problema e di come esso possa essere risolto con un calcolatore, facendo soprattutto riferimento a particolari tecniche di intelligenza artificiale e di rappresentazione della conoscenza, nello specifico il lavoro si è concentrato sulla progettazione e sviluppo di un ES case-based per risolvere il problema del “Menu Planning”. Verranno mostrate varie tecniche per la rappresentazione della conoscenza e come esse possano essere utilizzate per fornire supporto ad un programma per elaboratore, partendo dalla Logica Proposizionale e del Primo Ordine, fino ad arrivare ai linguaggi di Description Logic e Programmazione Logica. Inoltre si illustrerà come è possibile raccogliere una serie di informazioni mediante procedimenti di Knowledge Engineering. A livello concettuale è stata introdotta un’architettura che mette in comunicazione l’ES e un Ontologia di alimenti con l’utilizzo di opportuni framework di sviluppo. L’idea è quella di offrire all’utente la possibilità di vedere la propria pianificazione settimanale di pasti e dare dei suggerimenti su che cibi possa mangiare durante l’arco della giornata. Si mostreranno quindi le potenzialità di tale architettura e come essa, tramite Java, riesca a far interagire ES case-based e Ontologia degli alimenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sommario Il polo chimico di Ferrara, situato nella periferia nord occidentale del territorio comunale, rappresenta un’area ad alta concentrazione di stabilimenti, ai sensi dell’art. 13 del D.Lgs. 334/99 e s.m.i., ovvero un’area in cui sono presenti diversi stabilimenti a rischio di incidente rilevante, così definiti in base alle caratteristiche di pericolosità e dei quantitativi delle sostanze chimiche presenti. Per tali aree la norma di legge prevede la realizzazione di uno Studio di Sicurezza Integrato d’Area o SSIA. Allo SSIA del polo chimico ferrarese è stato dato avvio nel corso del 2012, in seguito ad un accordo tra la Regione Emilia Romagna, l’Agenzia Regionale di Protezione Civile, la Provincia di Ferrara, l’Ufficio Territoriale del Governo, il Comune di Ferrara, la Direzione Regionale dei Vigili del Fuoco, l’Agenzia Regionale Prevenzione e Ambiente e le stesse aziende presenti nel polo. La realizzazione dello SSIA prevede 6 fasi: 1) la definizione dei criteri metodologici da adottare per l’analisi del rischio; 2) la raccolta e l’analisi critica dei dati necessari all'analisi del rischio; 3) l’individuazione e la caratterizzazione delle sorgenti di rischio; 4) l’analisi delle conseguenze e la stima della frequenza di accadimento degli scenari incidentali che possono scaturire da ogni sorgente di rischio; 5) la ricomposizione, per tutti gli scenari di ogni sorgente e per tutte le sorgenti, delle frequenze e delle conseguenze negli indici di rischio; 6) l’analisi e la valutazione dei risultati ottenuti, al fine di interventi eventuali interventi per la riduzione e la mitigazione del rischio stesso. Il presente lavoro di tesi si inserisce nello Studio di Sicurezza Integrato d’Area del polo chimico di Ferrara ed in particolare nelle fasi 2), 3) e 4) sopra citate. Esso ha preso avvio durante un tirocinio svolto presso l’Agenzia Regionale di Protezione Civile ed ha avuto ad oggetto il trasporto di sostanze pericolose via strada e ferrovia nell'area dello SSIA. Il lavoro di tesi è così strutturato: a valle del capitolo 1 avente carattere introduttivo, si è descritta nel dettaglio l’area oggetto dello SSIA, con particolare riferimento alle vie di trasporto delle sostanze pericolose (capitolo 2). Successivamente (capitolo 3) si è illustrata la metodologia utilizzata per effettuare il censimento dei dati di trasporto delle sostanze pericolose forniti dalle aziende del polo e si sono presentati i risultati ottenuti. Infine (capitolo 4) si è eseguita l’analisi delle conseguenze degli scenari incidentali associati al trasporto di alcune delle sostanze movimentate per strada e ferrovia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene presentata un’analisi dettagliata sulla struttura di profili recettori di neuroni coinvolti nell’elaborazione visiva, con particolare attenzione per le cellule appartenenti alla corteccia visiva primaria (V1). Dopo aver illustrato brevemente il percorso effettuato dall’informazione visiva, costituito da retina, nucleo genicolato laterale e V1, vengono descritte la struttura e le principali caratteristiche di profili recettori dei neuroni appartenenti ad ognuno di questi livelli di elaborazione. Per modellare i profili recettori di cellule corticali in V1 si è deciso di utilizzare filtri bidimensionali realizzati mediante funzioni di Gabor nel dominio spaziale. Questo modello ha, infatti, il grande vantaggio di possedere alcune tra le maggiori proprietà dei profili recettori di neuroni appartenenti a V1: struttura del profilo recettore nello spazio (x,y), selettività in orientazione e in frequenza spaziale, indipendenza dalla fase dello stimolo. Viene successivamente presentato il concetto di campo di associazione visivo, mediante il quale sono determinate le caratteristiche principali (posizione spaziale ed orientazione) che diversi oggetti devono possedere per essere percepiti non come unità singole, ma come un unico elemento. I campi di associazione possono essere modellati mediante l’utilizzo del sistema di equazioni differenziali proposto da Citti-Sarti, le cui soluzioni sono curve integrali adatte a ricostruire la struttura dei campi di associazione, come proposti da Field, Hayes ed Hess. Diverse ipotesi sono state presentate su come cellule appartenenti a V1 siano in grado di realizzare simili campi di associazione, ed in particolare, da dove queste possano prendere le informazioni necessarie per farlo. Una di queste è quella sostenuta dai dati di Bosking et al., secondo i quali le connessioni intracorticali più fitte sono quelle tra neuroni non adiacenti tra loro, i cui profili recettori sono co-orientati (con la stessa orientazione preferenziale) e co-assiali (disposti lungo un asse del campo visivo che corrisponde all’orientazione preferenziale). L’analisi effettuata in questa tesi ha come obbiettivo proprio quello di ottenere informazioni utili su come cellule corticali siano legate alla fenomenologia dei campi di associazione. Come già detto, un filtro di Gabor bidimensionale può essere considerato un buon modello per profili recettori di questo tipo di cellule e quindi è possibile definirlo in maniera astratta come l’unità fondamentale nel processo di elaborazione visiva. Per questo motivo viene effettuata un’analisi di cross-correlazione tra un filtro di Gabor con una determinata orientazione e una famiglia di filtri di Gabor aventi n orientazioni. I risultati ottenuti sono stati trattati utilizzando la tecnica di soppressione dei non massimi, in modo da estrarre per ogni punto dell’immagine l’orientazione per la quale si ottiene la risposta massima. Successivamente, dai dati è stato possibile calcolare delle curve integrali simili a quelle ottenute dal modello differenziale proposto da Citti-Sarti. I risultati ottenuti da questa analisi si sono rivelati utili per comprendere più nel dettaglio i processi di elaborazione dei neuroni corticali, ed in particolare, per capire in che modo le informazioni necessarie per la realizzazione di strutture complesse ed articolate come quelle dei campi di associazione, siano già contenute intrinsecamente all’interno di ogni cellula corticale, unità fondamentale dell’elaborazione visiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente elaborato è frutto del lavoro di ricerca, della durata di cinque mesi, svolto presso il Department of Catchment Hydrology del centro di ricerca UFZ (Helmholtz-Zentrum für Umweltforschung) con sede in Halle an der Saale, Germania. L’obiettivo della Tesi è la stima della ricarica della falda acquifera in un bacino idrografico sprovvisto di serie di osservazioni idrometriche di lunghezza significativa e caratterizzato da clima arido. Il lavoro di Tesi è stato svolto utilizzando un modello afflussi-deflussi concettualmente basato e spazialmente distribuito. La modellistica idrologica in regioni aride è un tema a cui la comunità scientifica sta dedicando numerosi sforzi di ricerca, presentando infatti ancora numerosi problemi aperti dal punto di vista tecnico-scientifico, ed è di primaria importanza per il sostentamento delle popolazioni che vi abitano. Le condizioni climatiche in queste regioni fanno sì che la falda acquifera superficiale sia la principale fonte di approvvigionamento; una stima affidabile della sua ricarica, nel tempo e nello spazio, permette un corretta gestione delle risorse idriche, senza la quale il fabbisogno idrico di queste popolazioni non potrebbe essere soddisfatto. L’area oggetto di studio è il bacino idrografico Darga, una striscia di terra di circa 74 km2, situata in Cisgiordania, la cui sezione di chiusura si trova a circa 4 kilometri dalla costa del Mar Morto, mentre lo spartiacque a monte, ubicato a Nord-ovest, dista circa 3 kilometri dalla città di Gerusalemme.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si presentano i risultati necessari a dimostrare il principio di dualità proiettiva. Nella seconda parte si studiano i sistemi lineari di ipersuperfici in uno spazio proiettivo n-dimensionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I sistemi di raccomandazione per come li conosciamo nascono alla fine del XX secolo, e si sono evoluti fino ai giorni nostri approcciandosi a numerosi campi, tra i quali analizzeremo l’ingegneria del software, la medicina, la gestione delle reti aziendali e infine, come argomento focale della tesi, l’e-Learning. Dopo una rapida panoramica sullo stato dell’arte dei sistemi di raccomandazione al giorno d’oggi, discorrendo velocemente tra metodi puri e metodi ibridi ottenuti come combinazione dei primi, analizzeremo varie applicazioni pratiche per dare un’idea al lettore di quanto possano essere vari i settori di utilizzo di questi software. Tratteremo nello specifico il funzionamento di varie tecniche per la raccomandazione in ambito e-Learning, analizzando tutte le problematiche che distinguono questo settore da tutti gli altri. Nello specifico, dedicheremo un’intera sezione alla descrizione della psicologia dello studente, e su come capire il suo profilo cognitivo aiuti a suggerire al meglio la giusta risorsa da apprendere nel modo più corretto. È doveroso, infine, parlare di privacy: come vedremo nel primo capitolo, i sistemi di raccomandazione utilizzano al massimo dati sensibili degli utenti al fine di fornire un suggerimento il più accurato possibile. Ma come possiamo tutelarli contro intrusioni e quindi contro violazioni della privacy? L’obiettivo di questa tesi è quindi quello di presentare al meglio lo stato attuale dei sistemi di raccomandazione in ambito e-Learning e non solo, in modo da costituire un riferimento chiaro, semplice ma completo per chiunque si volesse affacciare a questo straordinario ed affascinante mondo della raccomandazione on line.  

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi affronta il tema della neuromatematica della visione, in particolare l’integrazione di modelli geometrici di percezione visiva con tecniche di riduzione di dimensionalità. Dall’inizio del secolo scorso, la corrente ideologica della Gestalt iniziò a definire delle regole secondo le quali stimoli visivi distinti tra loro possono essere percepiti come un’unica unità percettiva, come ad esempio i principi di prossimità, somiglianza o buona continuazione. Nel tentativo di quantificare ciò che gli psicologi avevano definito in maniera qualitativa, Field, Hayes e Hess hanno descritto, attraverso esperimenti psicofisiologici, dei campi di associazione per stimoli orientati, che definiscono quali caratteristiche due segmenti dovrebbero avere per poter essere associati allo stesso gruppo percettivo. Grazie alle moderne tecniche di neuroimaging che consentono una mappatura funzionale dettagliata della corteccia visiva, è possibile giustificare su basi neurofisiologiche questi fenomeni percettivi. Ad esempio è stato osservato come neuroni sensibili ad una determinata orientazione siano preferenzialmente connessi con neuroni aventi selettività in posizione e orientazione coerenti con le regole di prossimità e buona continuazione. Partendo dal modello di campi di associazione nello spazio R^2xS^1 introdotto da Citti e Sarti, che introduce una giustificazione del completamento percettivo sulla base della funzionalità della corteccia visiva primaria (V1), è stato possibile modellare la connettività cellulare risolvendo un sistema di equazioni differenziali stocastiche. In questo modo si sono ottenute delle densità di probabilità che sono state interpretate come probabilità di connessione tra cellule semplici in V1. A queste densità di probabilità è possibile collegare direttamente il concetto di affinità tra stimoli visivi, e proprio sulla costruzione di determinate matrici di affinità si sono basati diversi metodi di riduzione di dimensionalità. La fenomenologia del grouping visivo descritta poco sopra è, di fatto, il risultato di un procedimento di riduzione di dimensionalità. I risultati ottenuti da questa analisi e gli esempi applicativi sviluppati si sono rivelati utili per comprendere più nel dettaglio la possibilità di poter riprodurre, attraverso l’analisi spettrale di matrici di affinità calcolate utilizzando i modelli geometrici di Citti-Sarti, il fenomeno percettivo di grouping nello spazio R^2xS^1.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La messa a punto di tecniche come il patch clamp e la creazione di doppi strati lipidici artificiali (artificial bilayers) ha permesso di effettuare studi su canali ionici per valutarne la permeabilità, la selettività ionica, la dipendenza dal voltaggio e la cinetica, sia in ambito di ricerca, per analizzarne il funzionamento specifico, sia in quello farmaceutico, per studiare la risposta cellulare a nuovi farmaci prodotti. Tali tecniche possono essere inoltre impiegate nella realizzazione di biosensori, combinando così i vantaggi di specificità e sensibilità dei sistemi biologici alla veloce risposta quantitativa degli strumenti elettrochimici. I segnali in corrente che vengono rilevati con questi metodi sono dell’ordine dei pA e richiedono perciò l’utilizzo di strumentazioni molto costose e ingombranti per amplificarli, analizzarli ed elaborarli correttamente. Il gruppo di ricerca afferente al professor Tartagni della facoltà di ingegneria di Cesena ha sviluppato un sistema miniaturizzato che possiede molte delle caratteristiche richieste per questi studi. L’obiettivo della tesi riguarda la caratterizzazione sperimentale di tale sistema con prove di laboratorio eseguite in uno spazio ridotto e senza l’impiego di ulteriori strumentazioni ad eccezione del PC. In particolare le prove effettuate prevedono la realizzazione di membrane lipidiche artificiali seguita dall’inserimento e dallo studio del comportamento di due particolari canali ionici comunemente utilizzati per questa tipologia di studi: la gramicidina A, per la facilità d’inserimento nella membrana e per la bassa conduttanza del singolo canale, e l’α-emolisina, per l’attuale impiego nella progettazione e realizzazione di biosensori. Il presente lavoro si sviluppa in quattro capitoli di seguito brevemente riassunti. Nel primo vengono illustrate la struttura e le funzioni svolte dalla membrana cellulare, rivolgendo particolare attenzione ai fosfolipidi e alle proteine di membrana; viene inoltre descritta la struttura dei canali ionici utilizzati per gli esperimenti. Il secondo capitolo comprende una descrizione del metodo utilizzato per realizzare i doppi strati lipidici artificiali, con riferimento all’analogo elettrico che ne risulta, ed una presentazione della strumentazione utilizzata per le prove di laboratorio. Il terzo e il quarto capitolo sono dedicati all’elaborazione dei dati raccolti sperimentalmente: in particolare vengono prima analizzati quelli specifici dell’amplificatore, quali quelli inerenti il rumore che si somma al segnale utile da analizzare e la variabilità inter-prototipo, successivamente si studiano le prestazioni dell’amplificatore miniaturizzato in reali condizioni sperimentali e dopo aver inserito i canali proteici all’interno dei bilayers lipidici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La disintegrazione dei nuclei atomici si traduce in una emissione di vari tipi di radiazioni e particelle tra cui neutroni e raggi gamma. La rivelazione dei neutroni comporta l’utilizzo di rivelatori a scintillazione e tecniche di analisi per poter identificare e ottenere informazioni sull’energia dei neutroni. Il processo di scintillazione per la rivelazione dei neutroni consiste nell’interazione con i nuclei del materiale e successiva emissione luminosa dovuta a ionizzazione degli atomi del rivelatore. La luce e in seguito convertita in impulsi elettrici, i quali possono essere analizzati con opportune tecniche. L’emissione di neutroni `e accompagnata da emissione di raggi gamma e quindi `e necessario identificare i neutroni. Rivelatori basati su scintillatori organici vengono spesso impiegati nella spettrometria neutronica ad energie superiori di 0.5 MeV ed in una vasta gamma di applicazioni come la medicina, l’industria e la radioprotezione. La rilevazione dei neutroni `e molto importante nello studio delle reazioni nucleari di bassa energia e nello studio della materia nucleare lontano dalla valle di stabilita. In questo lavoro abbiamo studiato tre algoritmi: Zero Crossing, Charge Comparison e Pulse Gradient Analysis. Questi algoritmi sono stati in seguito applicati all’analisi di un insieme di dati provenienti dalla reazione nucleare 7Li(p,n)7Be. E stato utilizzato uno scintillatore organico liquido BC501. Si `e effettuato un confronto tra le varie tecniche utilizzate per determinare il grado di discriminazione ottenuto con ognuna di esse. I risultati ottenuti permettono di decidere in seguito quale algoritmo si presta ad essere utilizzato anche in altri esperimenti futuri. Il metodo Pulse Gradient Analysis `e risultato il piu` prometente, essendo anche possibile l’utilizzo on-line.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella maggior parte dei casi, i soggetti affetti da Disturbo dello Spettro Autistico hanno un deficit di comunicazione, sia esso verbale o non verbale. Nonostante, ad oggi, non esista una cura per questo disturbo, una diagnosi precoce entro il terzo anno di vita del soggetto e un programma educativo coerente con le necessità del paziente, permettono al bambino con autismo di raggiungere quantomeno le abilità comunicative di base. Recenti studi hanno dimostrato che l’utilizzo di Information and Communication Technology (ICT) nel trattamento di soggetti affetti da Disturbo dello Spettro Autistico può portare molti benefici, dato che, da un lato, computer, tablet e smartphone sono strumenti strutturati e prevedibili e, dall’altro, i sintetizzatori vocali, se presenti, sono privi di inflessioni verbali. A questo proposito, durante il mio tirocinio di tesi magistrale presso l’azienda “CSP – Innovazioni nelle ICT” di Torino, ho sviluppato un’applicazione per tablet Android che permette a psicologi, educatori, logopedisti, insegnanti e genitori di creare tabelle comunicative circostanziate alle esigenze del soggetto e che consente a quest’ultimo di utilizzare questo strumento come efficace mediatore sociale. Questo software si va a inserire in un progetto più ampio, denominato “tools4Autism”, nato dalla collaborazione tra il centro di ricerca di cui sopra, la “Fondazione ASPHI Onlus – ICT per migliorare la qualità di vita delle persone con disabilità” e il “Centro Autismo e Sindrome di Asperger” di Mondovì (CN). L’applicazione prevede principalmente due metodi di utilizzo: il primo, definito “modalità operatore”, è un editor che permette di creare tabelle composte da un numero variabile di immagini che possono essere pittogrammi, fotografie personali, disegni del bambino e possono essere accompagnate o meno da un testo. Una volta create le tabelle, l’operatore ha la possibilità di modificarle, eliminarle, variarne l’ordine, esportarle su altri dispositivi o importare tabelle precedentemente create. Il secondo metodo di utilizzo, definito “modalità utente”, permette al soggetto affetto da Disturbo Autistico di comunicare con altre persone sfruttando le tabelle create dall’operatore coerentemente con le sue necessità. Al tocco dell’immagine da parte del bambino, essa viene evidenziata tramite un contorno rosso e, se abilitato, il sintetizzatore vocale riproduce il testo associato a tale immagine. I principali fattori di innovazione dell’applicazione sono la gratuità, la semplicità di utilizzo, la rapidità nella creazione e nell’aggiornamento delle tabelle comunicative, la portabilità dello strumento e l’utilizzo della sintesi vocale. Il software sarà sperimentato presso il “Centro Autismo e Sindrome di Asperger”, centro di neuropsichiatria infantile specializzato nello studio del Disturbo Autistico. Tale sperimentazione si pone come obiettivo quello di verificare gli effettivi miglioramenti nella velocità e nella qualità di apprendimento delle fondamentali abilità comunicative.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mercato agroalimentare sta conoscendo, soprattutto negli ultimi anni, una evoluzione sia dal punto di vista normativo sia legato alla crescente richiesta da parte dell’opinione pubblica di caratteristiche di trasparenza, tracciabilità e sostenibilità ambientale, economica e sociale. La sostenibilità della Food Supply Chain rappresenta una problematica di grande interesse in termini di ricadute di impatto ambientale e depauperamento delle risorse. L’obiettivo di fornire strumenti decisionali utili per tutti gli operatori della Food Supply Chain ha comportato lo sviluppo di specifiche metodologie e di supporto alle decisioni. L'introduzione di una maggiore integrazione tra gli attori coinvolti nella FSC può portare a migliorare la sostenibilità dei sistemi alimentari. Nel presente lavoro è stato preso in considerazione un caso concreto in cui si è analizzata la filiera dei prodotti ortofrutticoli afferenti al centro di distribuzione di una catena della GDO, con un focus sui prodotti trattati e destinati all’area della provincia di Ravenna. La mappatura dei flussi di provenienza e destinazione delle merci ha permesso di analizzare strutturalmente i canali dei fornitori. Le informazioni acquisite sono state implementate su un database per consentirne la modellizzazione e l’analisi quantitativa dei flussi di prodotto ortofrutticolo. I dati sono stai elaborati attraverso l’uso della piattaforma software che ha collocato nello spazio i vari nodi logistici in modo da calcolarne le distanze reciproche e pianificare gli itinerari di viaggio. In questo modo è stato possibile simulare ogni singola spedizione a partire dall’aggregazione della domanda alle singole missioni di consegna, tenendo in considerazione i mezzi di trasporto selezionati. La scelta di un particolare tipo di veicolo, la sua velocità, la capacità massima del mezzo in termini di kg e m3, ha determinato il numero di spedizioni. Su queste basi è stato possibile eseguire il calcolo dell’impatto ambientale della distribuzione logistica e formulare quindi ipotesi di sviluppo futuro.