1000 resultados para Angiogenesi, modello matematico
Resumo:
La ricerca analizza la forma di Stato e di Governo e si focalizza nel ruolo importante del Capo dello Stato in funzione alla separazione dei poteri e consolidamento della democrazia in una Repubblica Parlamentare. Questa ricerca comparativa analizza l’evoluzione della forma di governo in Italia e Albania. La ricerca analizza nei dettagli l’evoluzione della forma di Governo, focalizzandosi all’istituzione del Capo dello Stato in Albania dall’indipendenza (1912), evidenziando il ruolo dell’Italia in quest’evoluzione. In maniera comparativa si analizza l’evoluzione dell’istituzione del Capo dello Stato in Italia fin dalla sua unita e gli altri sviluppi i quali servirono come modello per l’Albania, evidenziano l’influenza a livello internazionale che ebbe l’Italia per l’indipendenza dell’Albania, che portò al consolidamento dei loro rapporti. Questa ricerca analizza la collaborazione di questi due Stati la quale culmino con la loro Unione Personale identificandosi nello stesso Capo di Stato. La ricerca inoltre evidenzia che come questa fase sia stata superata dalla II Guerra Mondiale e la Guerra Fredda che vide questi Stati a sviluppare diverse forme di Governo. Per di più la ricerca evidenzia la trasformazione politico-istituzionale e il processo di cambiamento dell’Albania dopo la caduta del muro di Berlino che segno la fine del sistema comunista, che vide l’Albania ad adottare il modello Italiano per il Capo dello Stato.
Resumo:
Obiettivo della tesi è stato quello di analizzare, progettare e realizzare un modello di interfaccia uomo-macchina per macchine automatiche multidosaggio che fosse dinamicamente riconfigurabile alla variazione della configurazione operativa.
Resumo:
In questo lavoro viene mostrato come costruire un modello elettromeccanico per il sistema costituito da motore elettrico-riduttore-trasmissione-carico. Il modello è progettato per essere implementato su software di simulazione. Sono illustrati aspetti relativi ai componenti del sistema, alla dinamica dei meccanismi, a modelli di perdite elettriche nei motori ed alle modalità di costruizione del software di simulazione. Sono infine mostrati i risultati di alcune simulazioni.
Resumo:
Generic object recognition is an important function of the human visual system and everybody finds it highly useful in their everyday life. For an artificial vision system it is a really hard, complex and challenging task because instances of the same object category can generate very different images, depending of different variables such as illumination conditions, the pose of an object, the viewpoint of the camera, partial occlusions, and unrelated background clutter. The purpose of this thesis is to develop a system that is able to classify objects in 2D images based on the context, and identify to which category the object belongs to. Given an image, the system can classify it and decide the correct categorie of the object. Furthermore the objective of this thesis is also to test the performance and the precision of different supervised Machine Learning algorithms in this specific task of object image categorization. Through different experiments the implemented application reveals good categorization performances despite the difficulty of the problem. However this project is open to future improvement; it is possible to implement new algorithms that has not been invented yet or using other techniques to extract features to make the system more reliable. This application can be installed inside an embedded system and after trained (performed outside the system), so it can become able to classify objects in a real-time. The information given from a 3D stereocamera, developed inside the department of Computer Engineering of the University of Bologna, can be used to improve the accuracy of the classification task. The idea is to segment a single object in a scene using the depth given from a stereocamera and in this way make the classification more accurate.
Resumo:
In questa tesi si è studiato un metodo per modellare e virtualizzare tramite algoritmi in Matlab le distorsioni armoniche di un dispositivo audio non lineare, ovvero uno “strumento” che, sollecitato da un segnale audio, lo modifichi, introducendovi delle componenti non presenti in precedenza. Il dispositivo che si è scelto per questo studio il pedale BOSS SD-1 Super OverDrive per chitarra elettrica e lo “strumento matematico” che ne fornisce il modello è lo sviluppo in serie di Volterra. Lo sviluppo in serie di Volterra viene diffusamente usato nello studio di sistemi fisici non lineari, nel caso in cui si abbia interesse a modellare un sistema che si presenti come una “black box”. Il metodo della Nonlinear Convolution progettato dall'Ing. Angelo Farina ha applicato con successo tale sviluppo anche all'ambito dell'acustica musicale: servendosi di una tecnica di misurazione facilmente realizzabile e del modello fornito dalla serie di Volterra Diagonale, il metodo permette di caratterizzare un dispositivo audio non lineare mediante le risposte all'impulso non lineari che il dispositivo fornisce a fronte di un opportuno segnale di test (denominato Exponential Sine Sweep). Le risposte all'impulso del dispositivo vengono utilizzate per ricavare i kernel di Volterra della serie. L'utilizzo di tale metodo ha permesso all'Università di Bologna di ottenere un brevetto per un software che virtualizzasse in post-processing le non linearità di un sistema audio. In questa tesi si è ripreso il lavoro che ha portato al conseguimento del brevetto, apportandovi due innovazioni: si è modificata la scelta del segnale utilizzato per testare il dispositivo (si è fatto uso del Synchronized Sine Sweep, in luogo dell'Exponential Sine Sweep); si è messo in atto un primo tentativo di orientare la virtualizzazione verso l'elaborazione in real-time, implementando un procedimento (in post-processing) di creazione dei kernel in dipendenza dal volume dato in input al dispositivo non lineare.
Resumo:
Questa tesi di dottorato verte sull'individuazione di politiche industriali atte ad implementare il mercato dei prodotti a denominazione di origine. Inevitabilmente, l’analisi economica dei prodotti agroalimentari tipici di qualità implica anche l’approfondimento e l’individuazione, delle problematiche connesse con la creazione di un valore addizionale per il consumatore, rispetto a quello dei prodotti standardizzati. Questo approccio richiama l’attenzione, da una parte, sulle caratteristiche della domanda e sulla disponibilità del consumatore a riconoscere e apprezzare questo plus-valore, dall’altra sulle strategie che l’offerta può attivare per conseguire un premium price rispetto al prodotto standardizzato. Le certificazioni comunitarie Dop, Igp e Stg oltre che il marchio di prodotto biologico racchiudono, solitamente, tali dinamiche valoriali ma sono tutt’oggi poco conosciute dai consumatori. Diversi studi internazionali dimostrano, infatti, che la maggioranza dei cittadini comunitari ignorano il significato delle certificazioni di qualità. L’ipotesi di fondo di questo studio si basa sulla possibilità di fidelizzare questi marchi con i brand della grande distribuzione già affermati, come quello di Coop. Analizzare gli effetti dell’introduzione di prodotti private label a denominazione di origine nel mercato della grande distribuzione organizzata italiana ci permetterebbe di comprendere se questo segmento di mercato può aiutare il settore delle Dop/Igp. Questo studio ha cercato di verificare se il prodotto private label a denominazione di origine, riesca a sfruttare il doppio binario di fiducia rappresentato dal marchio comunitario unito a quello dell’impresa di distribuzione. Per comprendere la propensione del consumatore a spendere di più per questi prodotti, abbiamo utilizzato l’analisi dell’elasticità della domanda sul prezzo dei dati scanner fornitici da Coop Adriatica. Siamo riusciti a dimostrare tale positivo connubio confermato anche da una indagine demoscopica effettuata ad hoc sui consumatori.
Resumo:
L’elaborato utilizza un modello neurale, sviluppato nel lavoro di ricerca del prof. Ursino (2010) e successivamente modificato (2011 e 2012), al fine di analizzare alcuni meccanismi alla base della memoria semantica e lessicale. In particolare, la tesi si riferisce alla versione più recente del modello da cui ne deriva uno più semplificato come possibile modalità con cui l’uomo apprende i concetti, li immagazzina in opportune aree cerebrali e collega tali concetti alla parola corrispondente.
Resumo:
La ricerca nel campo del cultural heritage management ha adottato negli ultimi decenni le tecnologie web quali strumenti privilegiati per stabilire i nuovi approcci e indirizzi nella valorizzazione della conoscenza. Questa tesi si colloca nell'ambito interdisciplinare tra le scienze umanistiche e informatiche e si fonda sulla consapevolezza del reciproco arricchimento che può derivare dal continuo confronto, le une disponendo di mezzi più espressivi e popolari per divulgare il proprio patrimonio e le altre usufruendo di “materia prima” autorevole (ossia dati strutturati di qualità e alto livello di fiducia) in fase di sperimentazione. Lo studio dei punti di tangenza tra le discipline muove da due ambiti precisi, ovvero le applicazioni informatiche nel campo dell'archivistica e gli sviluppi del semantic web nel settore delle digital humanities.
Resumo:
Questa tesi illustra approfonditamente il modello Flipped Classroom esponendo i nuovi ruoli rivestiti da insegnante e studente durante la prima inversione didattica, oltre che le numerose strategie attuabili nel corso del secondo momento pratico in aula, e le trasformazioni apportate dal metodo nell'ambito della valutazione scolastica. Infine, è presente un resoconto dettagliato della sperimentazione del modello Flipped Classroom che ho attuato personalmente presso una scuola secondaria di secondo grado, riportando inoltre le opinioni degli studenti delle due classi che ne hanno preso parte.
Resumo:
In questa tesi è stato trattato il tema dei derivati sui tassi di interesse e approfondito il modello stocastico discreto di Hull-White.
Resumo:
Lo scopo dello studio è comprendere i fenomeni alla base della fiducia degli utenti verso l'enciclopedia online Wikipedia. Per farlo è necessario prima di tutto comprendere e modellizzare l'organizzazione della struttura dei processi socio-produttivi sottostanti alla produzione del contenuto di Wikipedia, procedendo quindi nel verificare empiricamente e descrivere le capacità di autocorrezione della stessa. Oltre a quelli utilizzati in questo studio, saranno anche descritti gli approcci e i risultati trattati in letteratura, riportando i principali studi che nel corso degli anni hanno affrontato questi argomenti, sebbene mantenendoli indipendenti. Per comprendere la struttura della community degli editor di Wikipedia, si è ipotizzata l'esistenza di un modello di tipo Core-Periphery. Per studiare il modello sono state eseguite delle analisi su dati derivanti da un campione di pagine della versione italiana di Wikipedia. I risultati ottenuti dall'analisi di queste informazioni rappresentano le basi utilizzate per la selezione delle pagine oggetto dell'iniezione degli errori, costituendo un metodo per stimare le diverse probabilità di autocorrezione per ciascuna pagina. Per quanto riguarda le capacità di resilienza di Wikipedia, i risultati sono ricavati utilizzando un approccio empirico. Questo consiste nell'inserimento di errori all'interno del campione di pagine sotto specifici vincoli metodologici per poi valutare in quanto tempo e con quali modalità questi errori vengono corretti. E' stata effettuata un'analisi specifica per la scelta delle tipologie di errore e delle variabili da considerare nell'inserimento di questi. Questa analisi ha portato alla definizione di 2 esperimenti tra loro distinti, i cui risultati portano ad interessanti conclusioni sia visti separatamente che combinati tra loro. Sulla base dei risultati di questi esperimenti è stato possibile discutere sulle capacità di autocorrezione del sistema, elemento chiave nello studio delle dinamiche della fiducia verso Wikipedia.
Resumo:
L'obiettivo di questo lavoro è quello di fornire una metodologia operativa, esposta sotto forma di modello organizzativo strutturato per casi, che le aziende possono utilizzare per definire le azioni immediate di risposta da intraprendere al verificarsi di un evento informatico di sicurezza, che potrebbe trasformarsi, come vedremo, in incidente informatico di sicurezza. La strutturazione di questo modello si basa principalmente su due standard prodotti dall'ISO/IEC ed appartenenti alla famiglia 27000, che delinea il sistema di gestione della sicurezza delle informazioni in azienda e che ha come scopo principale la protezione di riservatezza, integrità e disponibilità dei dati in azienda. Il contenuto di tali standard non può però prescindere dagli ordinamenti giuridici di ogni paese in cui vengono applicati, motivo per cui all'interno del lavoro sono stati integrati i riferimenti alle normative di rilevante interesse, soprattutto quelle collegate alla privacy e ai casi presi in esame all'interno del modello sviluppato. In prima battuta vengono quindi introdotti gli standard di riferimento, illustrati all'interno del Capitolo 1, proseguendo poi con la descrizione di concetti fondamentali per la strutturazione del modello organizzativo, come sicurezza informatica, incident response e informatica forense, che vengono esposti nel Capitolo 2. Nel Capitolo 3 vengono invece descritti gli aspetti normativi in merito alla privacy dei dati aziendali, dettagliando anche le motivazioni che portano alla creazione del modello organizzativo obiettivo di questo lavoro. Nel Capitolo 4 viene illustrato il modello organizzativo proposto, che presenta una struttra per casi e contiene una analisi dei casi più rilevanti dal punto di vista del business aziendale. Infine, nel Capitolo 5 vengono descritte le caratteristiche e le funzionalità di un software sviluppato sotto forma di Windows Service, nato in seguito a delle considerazioni basate sulle analisi di rischio svolte nel Capitolo 4.
Resumo:
In questa tesi consideriamo il problema della percezione di immagini, e in particolare la sensibilità al contrasto del nostro sistema visivo. Viene studiato il modello classico di Retinex, che descrive l'immagine percepita come soluzione di un'equazione di Poisson. Questo modello viene reinterpretato utilizzando strumenti di geometria differenziale e derivate covarianti. La controparte neurofisiologica del modello è la descrizione della funzionalità del LGN, e della connettività che le lega. Questa viene modellata come un nucleo soluzione fondamentale dell'equazione di Laplace, con strumenti di teoria delle distribuzioni. L'attività dello strato di cellule è quindi soluzione dell'equazione di Laplace, ovvero la stessa equazione che descrive il Retinex. Questo prova che le cellule sono responsabili della percezione a meno di illuminazione.
Resumo:
Questo lavoro di tesi si è concentrato sulla ricerca di una relazione tra la potenza nucleare e quella estesa di oggetti denominati “radiogalassie”. Essi sono tra gli oggetti più potenti dell'universo. Al momento la spiegazione di una tale emissione di potenza è giustificata tramite il modello unificato degli AGN (Active Galactic Nuclei). Tramite la sopra citata relazione tra la potenza nucleare e quella estesa è possibile dare una prova sperimentale del modello unificato degli AGN, inoltre si andranno ad investigare in maniera quantitativa l'angolo di vista e la velocità di emissione di alcuni oggetti di particolare potenza.
Resumo:
Da anni l’insegnamento “trasmissivo” delle scienze è messo in discussione e le ricerche condotte su grandi numeri di studenti di diverso livello scolare ne stanno dimostrando la scarsa efficacia. Si è cercato di documentare e interpretare le difficoltà esistenti per trovare soluzioni che garantiscano un apprendimento significativo. Il lavoro di tesi cerca di mettere a punto una proposta efficace per una formazione iniziale su un concetto matematico significativo: la funzione. Il percorso che presentiamo si sviluppa a partire da un’esperienza didattica in una terza secondaria inferiore in cui il passaggio dalla fase percettiva a quella più formale è affiancato dalla rappresentazione grafica relativa al moto del proprio corpo. L’attività ha permesso di avvicinare gli studenti ai fenomeni partendo da situazioni reali, di indagare le regolarità dei grafici, interpretare la relazione tra le grandezze e ha permesso a ciascuno di costruirsi un modello intuitivo. La proposta didattica si rivolge agli studenti più grandi del biennio della secondaria superiore ed è risultato abbastanza naturale adattare le prime fasi alla pre-sperimentazione. Si introduce la dipendenza lineare tra due variabili associandola ad un grafico rettilineo e si definisce la relazione che lega le variabili spazio temporali. Il passaggio al concetto di limite viene delineato attraverso l’ingrandimento e l’approssimazione della curva senza necessariamente introdurre rigore e formalismo ma sottolineando la finezza del significato matematico e il senso del procedimento. Tale proposta è un intreccio di contenuti matematici e fisici che avvicina gli studenti allo studio e alla comprensione della realtà di cui fanno parte.