972 resultados para bioacustica, modelli, oceanografia, cetologia, Santuario dei Cetacei
Resumo:
La tesi affronta il tema della neuromatematica della visione, in particolare l’integrazione di modelli geometrici di percezione visiva con tecniche di riduzione di dimensionalità. Dall’inizio del secolo scorso, la corrente ideologica della Gestalt iniziò a definire delle regole secondo le quali stimoli visivi distinti tra loro possono essere percepiti come un’unica unità percettiva, come ad esempio i principi di prossimità, somiglianza o buona continuazione. Nel tentativo di quantificare ciò che gli psicologi avevano definito in maniera qualitativa, Field, Hayes e Hess hanno descritto, attraverso esperimenti psicofisiologici, dei campi di associazione per stimoli orientati, che definiscono quali caratteristiche due segmenti dovrebbero avere per poter essere associati allo stesso gruppo percettivo. Grazie alle moderne tecniche di neuroimaging che consentono una mappatura funzionale dettagliata della corteccia visiva, è possibile giustificare su basi neurofisiologiche questi fenomeni percettivi. Ad esempio è stato osservato come neuroni sensibili ad una determinata orientazione siano preferenzialmente connessi con neuroni aventi selettività in posizione e orientazione coerenti con le regole di prossimità e buona continuazione. Partendo dal modello di campi di associazione nello spazio R^2xS^1 introdotto da Citti e Sarti, che introduce una giustificazione del completamento percettivo sulla base della funzionalità della corteccia visiva primaria (V1), è stato possibile modellare la connettività cellulare risolvendo un sistema di equazioni differenziali stocastiche. In questo modo si sono ottenute delle densità di probabilità che sono state interpretate come probabilità di connessione tra cellule semplici in V1. A queste densità di probabilità è possibile collegare direttamente il concetto di affinità tra stimoli visivi, e proprio sulla costruzione di determinate matrici di affinità si sono basati diversi metodi di riduzione di dimensionalità. La fenomenologia del grouping visivo descritta poco sopra è, di fatto, il risultato di un procedimento di riduzione di dimensionalità. I risultati ottenuti da questa analisi e gli esempi applicativi sviluppati si sono rivelati utili per comprendere più nel dettaglio la possibilità di poter riprodurre, attraverso l’analisi spettrale di matrici di affinità calcolate utilizzando i modelli geometrici di Citti-Sarti, il fenomeno percettivo di grouping nello spazio R^2xS^1.
Resumo:
In questo studio sarà trattato lo sviluppo degli algoritmi genetici, uno strumento di calcolo nato ispirandosi alle leggi Darwiniane sull’evoluzione naturale. Questi algoritmi, le cui basi furono introdotte a partire dagli anni '40, mirano alla risoluzione di una vasta categoria di problemi computazionali utilizzando un approccio differente, basato sulle regole di mutazione e ricombinazione proprie della genetica. Essi permettono infatti di valutare delle soluzioni di partenza e, grazie alle variazioni introdotte dalla modifica casuale o dalla ricombinazione di queste, crearne di nuove nel tentativo di convergere verso soluzioni ottimali. Questo studio si propone come una descrizione di questo strumento, dei suoi sviluppi e delle sue potenzialità in ambito bioingegneristico, focalizzandosi sul suo utilizzo recente nell’ identificazione parametrica di modelli cardiaci.
Resumo:
La tesi affronta il tema dell'innovazione della scuola, oggetto di costante attenzione da parte delle organizzazioni internazionali e dei sistemi educativi nazionali, per le sue implicazioni economiche, sociali e politiche, e intende portare un contributo allo studio sistematico e analitico dei progetti e delle esperienze di innovazione complessiva dell'ambiente di apprendimento. Il concetto di ambiente di apprendimento viene approfondito nelle diverse prospettive di riferimento, con specifica attenzione al framework del progetto "Innovative Learning Environments" [ILE], dell’Organisation For Economic And Cultural Development [OECD] che, con una prospettiva dichiaratamente olistica, individua nel dispositivo dell’ambiente di apprendimento la chiave per l’innovazione dell’istruzione nella direzione delle competenze per il ventunesimo Secolo. I criteri presenti nel quadro di riferimento del progetto sono stati utilizzati per un’analisi dell’esperienza proposta come caso di studio, Scuola-Città Pestalozzi a Firenze, presa in esame perché nell’anno scolastico 2011/2012 ha messo in pratica appunto un “disegno” di trasformazione dell’ambiente di apprendimento e in particolare dei caratteri del tempo/scuola. La ricerca, condotta con una metodologia qualitativa, è stata orientata a far emergere le interpretazioni dei protagonisti dell’innovazione indagata: dall’analisi del progetto e di tutta la documentazione fornita dalla scuola è scaturita la traccia per un focus-group esplorativo attraverso il quale sono stati selezionati i temi per le interviste semistrutturate rivolte ai docenti (scuola primaria e scuola secondaria di primo grado). Per quanto concerne l’interpretazione dei risultati, le trascrizioni delle interviste sono state analizzate con un approccio fenomenografico, attraverso l’individuazione di unità testuali logicamente connesse a categorie concettuali pertinenti. L’analisi dei materiali empirici ha permesso di enucleare categorie interpretative rispetto alla natura e agli scopi delle esperienze di insegnamento/apprendimento, al processo organizzativo, alla sostenibilità. Tra le implicazioni della ricerca si ritengono particolarmente rilevanti quelle relative alla funzione docente.
Resumo:
L'avvento di strumenti di osservazione sempre più potenti ha permesso negli ultimi decenni di studiare a fondo gli oggetti che compongono l'universo nonchè di giungere a stabilirne una possibile geometria. Se da un lato i dati di WMAP supportano un determinato scenario ``di consenso'', questo non esclude, tuttavia che anche altre possibili soluzioni cosmologiche possano entrare in gioco una volta che una o più delle assunzioni portanti del modello ΛCDM vengano aggiornate o risultino, alla prova di nuovi fatti, inconsistenti. Ecco quindi che può essere interessante investigare quali implicazioni possano nascere da una scelta diversa del modello. Prenderemo in considerazione cinque modelli: oltre al modello di consenso (ΛCDM), valuteremo anche tre casi limite nel contesto della metrica di Friedmann. Dedicheremo particolare attenzione, infine, al modello dello Stato Stazionario. Studieremo, al variare di questi scenari, la formazione stellare cosmica e con l'utilizzo dei modelli di SSP di Buzzoni (2005) otterremo le proprietà fotometriche di una meta galassia, le quali verranno confrontate con osservazioni recenti (e.g. Madgwick et al. 2002).
Resumo:
Il lavoro è parte integrante di un progetto di ricerca del Ministero della Salute ed è stato sviluppato presso la Fisica Sanitaria ed il reparto di Radioterapia Oncologica dell’Azienda Ospedaliero Universitaria di Modena. L’obiettivo è la realizzazione di modelli predittivi e di reti neurali per tecniche di warping in ambito clinico. Modifiche volumetrico-spaziali di organi a rischio e target tumorali, durante trattamenti tomoterapici, possono alterare la distribuzione di dose rispetto ai constraints delineati in fase di pianificazione. Metodologie radioterapiche per la valutazione di organ motion e algoritmi di registrazione ibrida permettono di generare automaticamente ROI deformate e quantificare la divergenza dal piano di trattamento iniziale. Lo studio si focalizzata sulle tecniche di Adaptive Radiation Therapy (ART) mediante la meta-analisi di 51 pazienti sottoposti a trattamento mediante Tomotherapy. Studiando il comportamento statistico del campione, sono state generate analisi predittive per quantificare in tempo reale divergenze anatomico dosimetriche dei pazienti rispetto al piano originale e prevedere la loro ripianificazione terapeutica. I modelli sono stati implementati in MATLAB, mediante Cluster Analysis e Support Vector Machines; l’analisi del dataset ha evidenziato il valore aggiunto apportabile dagli algoritmi di deformazione e dalle tecniche di ART. La specificità e sensibilità della metodica è stata validata mediante l’utilizzo di analisi ROC. Gli sviluppi del presente lavoro hanno aperto una prospettiva di ricerca e utilizzo in trattamenti multicentrici e per la valutazione di efficacia ed efficienza delle nuove tecnologie in ambito RT.
Resumo:
La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.
Resumo:
Il lavoro svolto in questa tesi s’inserisce e sviluppa soprattutto nel campo dell’analisi della vulnerabilità relativa agli tsunami ed è centrato sull’analisi della vulnerabilità di strutture ed edifici. Per la precisione si è focalizzata l’attenzione su un’area geografica specifica, cioè si è considerata l’ipotesi che un maremoto colpisca le coste orientali della Sicilia ed in particolare della città di Siracusa. Questo lavoro di tesi prenderà in considerazione due modelli distinti per la stima della vulnerabilità: il modello SCHEMA (SCenarios for Hazard-induced Emergencies MAnagement) che prende il nome dal progetto europeo in cui è stato sviluppato e il modello PTVA (Papathoma Tsunami Vulnerability Assessment) introdotto da Papathoma et al. (2003) e successivamente modificato da Dominey-Howes et al. (2007) e da Dall’Osso et al. (2009). Tali modelli sono esempi dei due possibili approcci (quantitativo e qualitativo). Nei seguenti capitoli si sono trattate le curve di fragilità e di danno, in particolare seguendo la metodologia di Koshimura et al. (2009) ed il lavoro di Valencia et al. (2011). A seguire sono stati descritti i due metodi utilizzati per lo studio della vulnerabilità (SCHEMA, PTVA) ed il lavoro che è stato condotto nell’area di Siracusa. Il lavoro di tesi si è concluso mostrando i risultati della classificazione di vulnerabilità evidenziando e discutendo differenze e similarità delle mappe risultanti dai due metodi applicati.
Resumo:
Descrizione dei vantaggi della tecnologia delle fondazioni da pozzo per le pile da ponte. Analisi dei carichi di un viadotto esistente a struttura mista e studio agli stati limite delle più svantaggiose condizioni di carico. Analisi sismica della pila. Progetto e verifica della pila, del plinto e del pozzo nelle diverse fasi di realizzazione e per le combinazioni di carico considerate. Verifiche del terreno, con riferimento ai criteri di dimensionamento del Prof. Jamiolkowski. Analisi tenso-deformativa del terreno con software Plaxis2D e Midas-GTS (3D). Confronti fra il metodo analitico adottato nelle verifiche ed i risultati numerici. Norme di riferimento: NTC2008, Istruzione N°I/SC/PS-OM/2298, Ordinanza 3274 come modificato dall'OPCM 3431
Resumo:
Il presente lavoro di tesi affronta il problema della calibrazione dei modelli idrologici afflussi-deflussi tramite un nuovo approccio basato sull'utilizzo di funzioni di utilità. L'approccio classico nella calibrazione dei modelli idrologici prevede la definizione di una misura di discrepanza tra dato osservato e simulato (definizione della funzione obiettivo) per poi procedere ad una sua minimizzazione o massimizzazione. Tradizionalmente, questo processo viene eseguito considerando l'idrogramma nella sua globalità, senza concentrarsi su quegli intervalli dell'idrogramma più utili all'utilizzatore del modello idrologico. Ad esempio, se il modello idrologico viene impiegato in un'ottica di gestione delle risorse idriche, l'utilizzatore sarà interessato ad una “migliore” riproduzione dei deflussi medio/bassi piuttosto che una corretta riproduzione dei colmi di piena. D'altra parte, se l'obiettivo è la riproduzione dei colmi di piena, un modello con alte prestazioni nella riproduzione dei deflussi medi risulta essere di scarsa utilità all'utilizzatore. Calibrando il modello tramite la funzione di utilità più adatta al caso pratico in esame, si può pertanto consentire all'utilizzatore del modello di guidare il processo di calibrazione in modo da essere coerente con il proprio schema decisionale e con le proprie esigenze, e di migliorare le performances del modello (cioè la riproduzione delle portate osservate) negli intervalli di portata per lui di maggiore interesse.
Resumo:
In questo lavoro viene mostrato come costruire un modello elettromeccanico per il sistema costituito da motore elettrico-riduttore-trasmissione-carico. Il modello è progettato per essere implementato su software di simulazione. Sono illustrati aspetti relativi ai componenti del sistema, alla dinamica dei meccanismi, a modelli di perdite elettriche nei motori ed alle modalità di costruizione del software di simulazione. Sono infine mostrati i risultati di alcune simulazioni.
Resumo:
Studio dei limiti della programmazione ad oggetti concorrente e introduzione dei modelli di concorrenza alternativi forniti in letteratura, prendendo gli attori come caso studio. Analisi delle performance della libreria ad attori Akka e confronto con i meccanismi forniti da Java 7.
Resumo:
Per eseguire dei test automatizzati su una moto posta su banco a rulli, è necessario un software che permetta di gestire determinati attuatori sulla moto, in modo da poter simulare le condizioni di guida desiderate. Nel modello preso in esame, sono stati utilizzati Simulink e NI VeriStand. Simulink è un ambiente grafico di simulazione e analisi di sistemi dinamici completamente integrato con Matlab, caratterizzato dalla tipica interfaccia a blocchi, che possono essere personalizzati o scelti dalla libreria. Ni VeriStand è invece un ambiente software che permette di elaborare modelli scritti in Simulink in real time. Il presente lavoro è stato incentrato proprio su quest’ultimo aspetto. Per prima cosa è stata esaminata a fondo la parte del modello in Simulink, dopo di che è stata valutata la possibilità di riscrivere alcune parti del modello con un’applicazione interna a Simulink (StateFlow), che si potrebbe prestare meglio a simulare la logica di controllo rispetto a com’è gestita attualmente.
Resumo:
Il progetto di ricerca che ho svolto in questi mesi si è focalizzato sull'integrazione dei risultati raggiunti grazie all'elaborazione di nuovi dati sperimentali. Questi sono stati prelevati dalla corteccia visiva di macachi, attraverso l'utilizzo di tecniche di registrazione elettro-fisiologiche mediante array di micro-elettrodi[25], durante la presentazionedi alcuni filmati (sequenze di immagini o frames). Attraverso la tecnica del clustering, dalle registrazioni degli esperimenti sono stati raggruppati gli spike appartenenti ad uno stesso neurone, sfruttando alcune caratteristiche come la forma del potenziale d'azione. Da questa elaborazione e stato possibile risalire a quali stimoli hanno prodotto una risposta neurale. I dati messi a disposizione da Ringach non potevano essere trattati direttamente con le tecniche della spike-triggered average e della spike-triggered covariance a causa di alcune loro caratteristiche. Utilizzando filtri di Gabor bidimensionali e l'energia di orientazione e stato pero possibile modellare la risposta di cellule complesse in corteccia visiva primaria. Applicare questi modelli su dati ad alta dimensionalita immagini molto grandi), sfruttando la tecnica di standardizzazione (Z-score), ha permesso di individuare la regione, la scala e l'orientazione all'interno del piano immagine dei profili recettivi delle cellule di cui era stata registrata l'attività neurale. Ritagliare tale regione e applicare la spike-triggered covariance su dati della giusta dimensionalita, permetterebbe di risalire ai profili recettivi delle cellule eccitate in un preciso momento, da una specifica immagine e ad una precisa scala e orientazione. Se queste ipotesi venissero confermate si potrebbe marcare e rafforzare la bontà del modello utilizzato per le cellule complesse in V1 e comprendere al meglio come avviene l'elaborazione delle immagini.
Resumo:
La PKCε e la PKCδ, chinasi ubiquitariamente distribuite e ad azione pleiotropica, sono implicate del differenziamento, sopravvivenza e proliferazione cellulare. Esse sono coinvolte nel processo differenziativo delle cellule staminali ematopoietiche e in fenomeni patologici associati al compartimento sanguigno. In questa tesi sono presentati i risultati riguardanti lo studio in vitro del ruolo di PKCε e PKCδ nel contesto del differenziamento megacariocitario, in particolare si caratterizza l’espressione e la funzione di queste chinasi nel modello umano e nel modello murino di Megacariocitopoiesi, normale e patologica. Confrontando le cinetiche dei due modelli presi in analisi nello studio è stato possibile osservare come in entrambi PKCε e PKCδ dimostrino avere una chiara e specifica modulazione nel progredire del processo differenziativo. Questi dati, se confrontati, permettono di affermare che PKCε e PKCδ presentano un pattern di espressione opposto e, nel modello umano rispetto a quello murino, reciproco: nell’uomo i livelli di PKCε devono essere down-modulati, mentre nel topo, al contrario, i livelli della chinasi risultano up-modulati durante lo stesso processo. Analogamente, le CD34+ in differenziazione presentano una costante e maggiore espressione di PKCδ durante la maturazione MK, mentre nel modello murino tale proteina risulta down-modulata nella fase più tardiva di formazione della piastrina. Le chinasi mostrano in oltre di agire, nei due modelli, attraverso pathways distinti e cioè RhoA nel topo e Bcl-xL nell’uomo. È stato inoltre verificato che l’aberrante differenziamento MK osservato nella mielofibrosi primaria (PMF), è associato a difetti di espressione di PKCε e di Bcl-xL e che una forzata down-modulazione di PKCε porta ad un ripristino di un normale livello di espressione di Bcl-xL così come della popolazione di megacariociti formanti propiastrine. I dati ottenuti indicano quindi che PKCε e PKCδ svolgono un ruolo importante nel corretto differenziamento MK e che PKCε potrebbe essere un potenziale nuovo target terapeutico nelle PMF.
Resumo:
Studio dello sviluppo dei modelli di processo di sviluppo software con particolare approfondimento del modello agile Scrum e relativo studio effettuato alla Microsoft sull'uso di Scrum.