948 resultados para Ritmi celebrali, Talamo, Modelli di massa neuronale, Onde del sonno, Spindles


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi tratta dello sviluppo di un progetto, svolto durante il periodo di tirocinio presso SMS.it, azienda specializzata nel settore della telefonia con sede a Bologna. L'azienda in questione ha commissionato, al sottoscritto ed al mio collega Daniele Sciuto, l'implementazione di un'applicazione cross-platform per smartphone, ed il relativo server. L'azienda ci ha fornito le specifiche del progetto, e ci ha seguiti in tutte le fasi del suo sviluppo. L'applicazione è pensata per offrire agli utenti la possibilità di usufruire di tariffe telefoniche agevolate. I vantaggi sono maggiormente apprezzabili nelle chiamate internazionali. Queste tariffe sono possibili grazie agli accordi fra l'azienda e vari operatori di telefonia. Nella primo capitolo di questo elaborato, viene analizzato cosa ci è stato richiesto di realizzare, le specifiche del progetto dateci dall'azienda e quali sono i vincoli ai quali ci si è dovuti attenere. Nella secondo capitolo, viene descritto nel dettaglio la progettazione delle singole funzionalità dell'applicazione, e i rapporti che ci sono fra il front-end ed il back-end. Successivamente, sono analizzate le tecnologie necessarie per la realizzazione e il loro utilizzo nell'applicazione. Come richiestoci dall'azienda, alcuni dettagli implementativi sono stati omessi, per garantire il rispetto del segreto industriale. Nonostante ciò viene comunque fornita una panoramica completa di ciò che è stato realizzato. In ultima analisi è descritta qualitativamente l'applicazione ottenuta, e come aderisca alle specifiche richieste.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo dello studio è comprendere i fenomeni alla base della fiducia degli utenti verso l'enciclopedia online Wikipedia. Per farlo è necessario prima di tutto comprendere e modellizzare l'organizzazione della struttura dei processi socio-produttivi sottostanti alla produzione del contenuto di Wikipedia, procedendo quindi nel verificare empiricamente e descrivere le capacità di autocorrezione della stessa. Oltre a quelli utilizzati in questo studio, saranno anche descritti gli approcci e i risultati trattati in letteratura, riportando i principali studi che nel corso degli anni hanno affrontato questi argomenti, sebbene mantenendoli indipendenti. Per comprendere la struttura della community degli editor di Wikipedia, si è ipotizzata l'esistenza di un modello di tipo Core-Periphery. Per studiare il modello sono state eseguite delle analisi su dati derivanti da un campione di pagine della versione italiana di Wikipedia. I risultati ottenuti dall'analisi di queste informazioni rappresentano le basi utilizzate per la selezione delle pagine oggetto dell'iniezione degli errori, costituendo un metodo per stimare le diverse probabilità di autocorrezione per ciascuna pagina. Per quanto riguarda le capacità di resilienza di Wikipedia, i risultati sono ricavati utilizzando un approccio empirico. Questo consiste nell'inserimento di errori all'interno del campione di pagine sotto specifici vincoli metodologici per poi valutare in quanto tempo e con quali modalità questi errori vengono corretti. E' stata effettuata un'analisi specifica per la scelta delle tipologie di errore e delle variabili da considerare nell'inserimento di questi. Questa analisi ha portato alla definizione di 2 esperimenti tra loro distinti, i cui risultati portano ad interessanti conclusioni sia visti separatamente che combinati tra loro. Sulla base dei risultati di questi esperimenti è stato possibile discutere sulle capacità di autocorrezione del sistema, elemento chiave nello studio delle dinamiche della fiducia verso Wikipedia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi descrive una prima serie di misure effettuate per caratterizzare le prestazioni di un rivelatore di fotoni MCP-PMT a multi anodo, con particolare enfasi sulla risoluzione temporale e spaziale. I risultati sono stati confrontati con quelli relativi a tre ulteriori rivelatori (un MCP-PMT a singolo anodo e due fotomoltiplicatori a silicio). Le misure sono state effettuate presso i Laboratori dell’Istituto Nazionale di Fisica Nucleare (INFN - Sezione di Bologna) per conto del Dipartimento di Fisica dell’Università di Bologna. La rivelazione della luce ha sempre occupato un posto fondamentale nella Fisica Nucleare e Subnucleare. Il principio base della rivelazione consiste nel trasformare la luce incidente in un segnale elettrico misurabile e i primi strumenti storicamente utilizzati furono i fotomoltiplicatori. Successivamente furono introdotti dei nuovi rivelatori di fotoni chiamati Micro Channel Plates, composti da un array di canali di dimensioni microscopiche, ciascuno in grado di moltiplicare gli elettroni prodotti per effetto fotoelettrico dai fotoni incidenti. Questo nuovo modello presenta ottime prestazioni in particolare per quanto riguarda la risoluzione temporale, e questa insieme ad altre caratteristiche (come la segmentazione degli anodi, che permette una risoluzione spaziale migliore), ha spinto a studiarne il funzionamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’attività di tesi è stata rivolta a realizzare l’accoppiamento tra modelli di reazione chimica e modelli di fluidodinamica per una reazione eterogenea solido-liquido in un reattore agitato, in ambito di un codice commerciale di fluidodinamica numerica. Lo studio ha avuto come punto di partenza la definizione e la discretizzazione del dominio di calcolo tramite un apposito programma. Per una trattazione completa, si sono svolti studi preliminari volti ad identificare le incertezze dovute ai metodi numerici e i limiti dovuti alla formulazione dei modelli per la descrizione del sistema. Lo studio si è svolto considerando sistemi di complessità crescente, partendo da simulazioni monofase fino ad arrivare allo studio di diverse soluzioni per sistemi reagenti con reazioni eterogenee solido-liquido. Questi ultimi esempi applicativi sono serviti come verifica del modello sviluppato (dove con modello si è indicato l’insieme dei modelli relativi alla fluidodinamica accoppiati al modello di reazione). Questa attività ha contribuito ad affrontare un problema di simulazione completa e completamente predittiva dei reattori chimici, essendo la letteratura a riguardo limitata, a differenza di quella relativa alle simulazioni puramente fluidodinamiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto si pone in sintonia con i nuovi scenari di ricerca – sia in ambito nazionale che internazionale - della Pedagogia Speciale per l’inclusione e la piena e attiva partecipazione all’interno della società delle persone con disabilità e delle loro famiglie (Convenzione Onu, 2006). La riflessione sul ruolo educativo del padre riguardo alla disabilità di un/una figlio/a è una questione complessa e controversa che necessita di una premessa che ponga al centro dell’attenzione pedagogica la funzione paterna in senso ampio. L’obiettivo principale del progetto è quello di indagare il ruolo educativo del padre – nelle situazioni di disabilità - con riflessioni più ampie riguardanti le funzioni parentali, i modelli di genitorialità e l’educare nella nostra società.I risultati attesi potranno gettare luce su alcune Linee Guida - riguardo alla presa in carico della famiglia e del sostegno alla genitorialità - utili ai professionisti impegnati in quest’area e agli educatori dei servizio socio-educativi e sanitari.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tra le plurime conseguenze dell’avvento del digitale, la riarticolazione dei rapporti tra immagine statica e immagine in movimento è certamente una delle più profonde. Sintomatica dei cambiamenti in atto sia nei film studies sia nella storia dell’arte, tale riarticolazione richiede un ripensamento dei confini disciplinari tradizionali entro cui il cinema e la fotografia sono stati affrontati come oggetti di studio separati e distinti. Nell’adottare un approccio molteplice, volto a comprendere prospettive provenienti dalla New Film History e dalla media archaeology, dalla teoria dell’arte e dagli studi visuali, questo lavoro esplora l’esistenza di una relazione dialettica tra il cinema e la fotografia intesa in modo duplice: come tensione costitutiva tra due media indissolubilmente connessi – non tanto in considerazione di un medesimo principio realistico di rappresentazione quanto, piuttosto, in virtù di uno scambio incessante nella modellizzazione di categorie quali il tempo, il movimento, l’immobilità, l’istante, la durata; come istanza peculiare della pratica artistica contemporanea, paradigma di riferimento nella produzione estetica di immagini. La tesi si suddivide in tre capitoli. Il primo si concentra sul rapporto tra l’immobilità e il movimento dell’immagine come cifra in grado di connettere l’estetica delle attrazioni e la cronofotografia a una serie di esperienze filmiche e artistiche prodotte nei territori delle avanguardie. Il secondo capitolo considera l’emergenza, dagli anni Novanta, di pratiche artistiche in cui l’incontro intermediale tra film e fotografia fornisce modelli di analisi volti all’indagine dell’attuale condizione estetica e tecnologica. Il terzo offre una panoramica critica su un caso di studio, la GIF art. La GIF è un formato digitale obsoleto che consente di produrre immagini che appaiono, simultaneamente, come fisse e animate; nel presente lavoro, la GIF è discussa come un medium capace di contraddire i confini attraverso cui concepiamo l’immagine fissa e in movimento, suggerendo, inoltre, un possibile modello di pensiero storico-cronologico anti-lineare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’anguilla europea, è una specie eurialina catadroma con un complesso ciclo biologico: l’area di riproduzione, unica, si trova molto distante da quella di distribuzione. La specie necessita di una gestione dello stock a fini conservazionistici. Il problema è europeo: lo stock è unico, distribuito in Europa e nell’Africa settentrionale, si riproduce in Atlantico ed è panmittico. C’è preoccupazione per il declino del reclutamento e delle catture di adulti. Lo scopo del progetto è di individuare possibili unità di stock nella penisola italiana. La ricerca è basata sullo studio degli otoliti mediante analisi morfometrica e microchimica. I contorni degli otoliti sono sottoposti ad analisi ellittica di Fourier per individuare eventuali gruppi. Gli otoliti sono stati levigati per effettuare: letture d’età, indagini microstrutturali al SEM delle fasi larvali, analisi microchimiche LA-ICP-MS del nucleo, studiarne l’origine e valutare l’ambiente di sviluppo. Le indagini morfometriche mostrano evidenti pattern ontogenetici, ma non legati ocorrelati alla località, sesso o anno di nascita. Le indagini microstrutturali hanno evidenziano l’alto contenuto organico nucleare, un pattern comune di crescita ed eventi chiave delle fasi larvali, con una media di 212 anelli giornalieri. La microchimica rivela che le larve si sviluppano in acque salate fino alla metamorfosi, poi migrano verso acque meno salate. Le analisi su campioni nati nello stesso anno, evidenziano due gruppi: individui di rimonta naturale e individui di ripopolamento. I profili nucleo bordo evidenziano la permanenza a salinità intermedie degli adulti. L’attività di ricerca si è dimostrata proficua dal punto di vista tecnico con la messa a punto di protocolli innovativi e con forti ricadute sulla riduzione dei tempi e costi d’analisi. Il debole segnale di possibili unità di stock andrà verificato in futuro mediante analisi più dettagliate discriminando meglio la storia di ogni singolo individuo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I Comuni incarnano idealmente delle piazze in cui il dibattito politico può svilupparsi in assenza di particolari filtri ed intermediazioni, con un rapporto diretto tra cittadini ed istituzioni. Essi costituiscono uno snodo di centrale importanza nell'esercizio della sovranità popolare e, al contempo, sono terreno fertile per la sperimentazione di modelli di partecipazione democratica. Prendendo come punto di vista l'esperienza dei Comuni italiani, si è scelto di focalizzare l'attenzione su uno degli strumenti “istituzionali” – nonché uno tra i più tradizionali – di partecipazione popolare, ovvero il referendum, nelle diverse forme ed accezioni che rientrano nel campo semantico di tale espressione. Questa è generalmente impiegata per indicare tutte quelle votazioni popolari non elettive su questioni politicamente rilevanti, formulate attraverso un quesito con due o più risposte alternative tra loro. L'analisi della disciplina legislativa degli istituti di partecipazione negli enti locali e lo studio delle disposizioni statutarie e regolamentari previste dai singoli Comuni, nonché le informazioni raccolte da alcuni casi di studio, rappresentano, in questo contesto, l'occasione per indagare le caratteristiche peculiari dell'istituto referendario, la sua effettività ed il suo impatto sulla forma di governo. In particolare, si è verificata positivamente la compatibilità del referendum, classificato dalla prevalente dottrina come istituto di democrazia diretta, con le forme attuali di democrazia rappresentativa. Si è tentato, altresì, un accostamento ai concetti di democrazia partecipativa e deliberativa, evidenziando come manchi del tutto, nel procedimento referendario (che pure è dotato di massima inclusività) un momento di confronto “deliberativo”. Il raffronto tra le esperienze riscontrate nei diversi Comuni ha consentito, inoltre, di ricercare le cause di alcuni aspetti critici (scarsa affluenza, mancata trasformazione del voto in decisioni politiche, aumento del conflitto) e, al contempo, di individuarne possibili soluzioni, tracciate sulla scorta delle migliori pratiche rilevate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’accoppiamento di diverse operazioni unitarie può in certi casi portare ad una cosiddetta “intensificazione di processo”, cioè ad un aumento sostanziale delle rese, dell’efficienza e della sostenibilità. Nel presente lavoro sono state pertanto analizzate le potenzialità di accoppiamento della fotocatalisi, il più studiato tra i “processi di ossidazione avanzata”, sia con alcuni processi a membrana per la sintesi verde di aromi sia con l’ozonizzazione per la depurazione di acque. È stato dimostrato che in entrambi i casi l’ottenimento di una significativa intensificazione di processo dipende in gran parte dai parametri operativi, in particolare dal rapporto, delta, tra la velocità caratteristica di fotocatalisi e quella del processo accoppiato. Nel caso della sintesi di aromi, in cui la fotocatalisi viene accoppiata con la pervaporazione o con la dialisi ricircolando al reattore il retentato dalla cella con la membrana. Il parametro delta dipende dalla velocità di reazione, dalle proprietà di trasporto delle membrane e naturalmente dal volume del rettore e dall’area della membrana. La reazione fotocatalitica produce l’aroma, ad esempio vanillina da acido ferulico, per ossidazione parziale e grazie al recupero del prodotto se ne evita l’ulteriore ossidazione aumentandone pertanto la resa. L’operare in apparati separati offre diversi vantaggi come la possibilità di variare senza vincoli il rapporto tra area della membrana e volume del reattore, ma impone di considerare anche il grado effettivo di accoppiamento dei processi. In questo caso, come evidenziato dal modello matematico, un sufficientemente elevato rapporto di ricircolo consente comunque di integrare efficacemente i processi. Nell’ozonizzazione fotocatalitica si hanno due importanti vantaggi: l’aumento della velocità di degradazione grazie alla sinergia tra i processi e la capacità di controllare la formazione di prodotti pericolosi. La sinergia viene massimizzata ad un valore ottimale di delta, mentre la formazione dei prodotti indesiderati viene controllata operando secondo le procedure che sono state individuate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni, complice la rapida evoluzione degli elaboratori e dei sensori, spinta dal mercato smartphone, una tecnologia si sta sviluppando e si sta diffondendo rapidamente. Si tratta di quella relativa agli unmanned vehicles (UV), i veicoli senza pilota, spesso nel linguaggio comune chiamati “droni”. Questi particolari veicoli sono dotati della tecnologia adatta per svolgere in relativa autonomia particolari mansioni, senza la necessità della presenza di un pilota a bordo. In questa Tesi magistrale si descrivono brevemente le diverse categorie di UV e l’attuale livello di autonomia raggiunta nello svolgimento di alcune funzioni, grazie a tecnologie quali i linguaggi ad agenti, di cui si presentano anche alcune significative applicazioni allo stato dell’arte. Per rendere più efficaci eventuali nuove funzionalità, fornendo una metodologia di sviluppo, atta ad aumentare il grado di astrazione, viene proposto un approccio architetturale a tre livelli. In particolare, viene approfondito il secondo livello, presentando l’implementazione di una funzionalità, l’autolocalizzazione spaziale, utile ad un sistema di terzo livello per arricchire la propria conoscenza dell’ambiente, al fine di raggiungere la massima autonomia nel controllo del mezzo. Questa prima esperienza ha consentito di approfondire le necessità in termini di hardware e software, al fine di poter effettuare una scelta mirata per l’ottimizzazione dei risultati ed un eventuale porting on-board, nella prospettiva di svincolare il mezzo da eventuali collegamenti con una stazione di terra, fino ad ora necessaria per eseguire le attività più complesse. Un interessante caso di studio consente di verificare la bontà del modello proposto e i risultati raggiunti nell’autolocalizzazione. In conclusione, si propongono ulteriori sviluppi che potranno fornire gli strumenti necessari alla massima espressione del potenziale che gli UV possiedono.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le Millisecond Pulsar (MSP) sono stelle di neutroni magnetizzate e rapidamente rotanti, prodotte da fenomeni di accrescimento di massa e momento angolare da parte di una stella compagna. Secondo lo scenario canonico di formazione, è atteso che la stella compagna sia una nana bianca di He, privata del suo inviluppo esterno. Tuttavia, in un numero crescente di casi, la compagna della MSP è stata identificata in una stella di piccola massa, non degenere, ancora soggetta a fenomeni di perdita di massa. Queste MSP vengono comunemente chiamate ''Black-Widow'' (BW) e sono l'oggetto di studio di questa tesi. In particolare, l'obiettivo di questo lavoro è l'identificazione della controparte ottica della PSR J1953+1846A nell'ammasso globulare M71. Essa è classificata come BW, data la piccola massa della compagna (~0.032 Msun) e il segnale radio eclissato per circa il 20% dell'orbita. Tramite l'uso di osservazioni ad alta risoluzione con il telescopio spaziale Hubble, abbiamo identificato, in una posizione compatibile con la MSP, un debole oggetto, la cui variabilità mostra una periodicità coerente con quella del sistema binario, noto dalla banda radio. La struttura della curva di luce è indicativa della presenza di fenomeni di irraggiamento della superficie stellare esposta all'emissione della MSP e dalla sua analisi abbiamo stimato alcuni parametri fisici della compagna, come la temperatura superficiale ed il fattore di riempimento del lobo di Roche. Dal confronto tra le curve di luce X ed ottica, abbiamo inoltre trovato evidenze a favore della presenza di shocks nelle regioni intrabinarie. Abbiamo quindi evidenziato l'estrema similarità di questo sistema con l'unica compagna di BW attualmente nota in un ammasso globulare: PSR J1518+0204C. Infine, abbiamo effettuato uno studio preliminare delle controparti ottiche delle sorgenti X dell'ammasso. Abbiamo così identificato due AGN che, insieme ad altre due galassie, hanno permesso la determinazione del moto proprio assoluto delle stelle dell'ammasso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

il profilo verticale del gas dipende sia dal potenziale galattico, e quindi dalla distribuzione di materia, sia dalla dispersione di velocit`a del gas La nostra analisi teorica ha mostrato che l’altezza scala dell’idrogeno gassoso ad un certo raggio `e fortemente legata alla componente di massa dominate: nelle parti centrali, dove domina la materia barionica, il disco gassoso incrementa il suo spessore esponenzialmente con una lunghezza scala pari al doppio di quella del disco stellare; dalle zone intermedie fino alla fine del disco, il profilo verticale del gas `e influenzato dalla distribuzione di DM. In queste zone lo spessore del disco gassoso cresce con il raggio in maniera circa lineare. Tale fenomeno viene definito gas flaring. Lo scopo principale di questa tesi `e la ricerca di una nuova tecnica per poter stimare il profilo vertical del gas in galassie con inclinazione intermedia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro studiamo le funzioni armoniche e le loro proprietà: le formule di media, il principio del massimo e del minimo (forte e debole), la disuguaglianza di Harnack e il teorema di Louiville. Successivamente scriviamo la prima e la seconda identità di Green, che permettono di ottenere esplicitamente la soluzione fondamentale dell’equazione di Laplace, tramite il calcolo delle soluzioni radiali del Laplaciano. Introduciamo poi la funzione di Green, da cui si ottiene una formula di rappresentazione per le funzioni armoniche. Se il dominio di riferimento è una palla, la funzione di Green può essere determinata esplicitamente, e ciò conduce alla rappresentazione integrale di Poisson per le funzioni armoniche in una palla.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno dei più importanti campi di ricerca che coinvolge gli astrofisici è la comprensione della Struttura a Grande Scala dell'universo. I principi della Formazione delle Strutture sono ormai ben saldi, e costituiscono la base del cosiddetto "Modello Cosmologico Standard". Fino agli inizi degli anni 2000, la teoria che spiegava con successo le proprietà statistiche dell'universo era la cosiddetta "Teoria Perturbativa Standard". Attraverso simulazioni numeriche e osservazioni di qualità migliore, si è evidenziato il limite di quest'ultima teoria nel descrivere il comportamento dello spettro di potenza su scale oltre il regime lineare. Ciò spinse i teorici a trovare un nuovo approccio perturbativo, in grado di estendere la validità dei risultati analitici. In questa Tesi si discutono le teorie "Renormalized Perturbation Theory"e"Multipoint Propagator". Queste nuove teorie perturbative sono la base teorica del codice BisTeCca, un codice numerico originale che permette il calcolo dello spettro di potenza a 2 loop e del bispettro a 1 loop in ordine perturbativo. Come esempio applicativo, abbiamo utilizzato BisTeCca per l'analisi dei bispettri in modelli di universo oltre la cosmologia standard LambdaCDM, introducendo una componente di neutrini massicci. Si mostrano infine gli effetti su spettro di potenza e bispettro, ottenuti col nostro codice BisTeCca, e si confrontano modelli di universo con diverse masse di neutrini.