990 resultados para valore atteso prezzo equo momenti utilità


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel dibattito riguardante la valorizzazione delle aree archeologiche il ruolo della museografia quale disciplina capace di conciliare saperi come quello archeologico e quello architettonico,e ancora, tra la cultura conservativa e quella progettuale. All' interno del laboratorio di laurea è stato sviluppato un progetto per il sito archeologico della città romana di Suasa che oltre a tenere conto delle tematiche generali attinenti alle più recenti posizioni della disciplina architettonica e museografica in rapporto all’archeologia, dia delle risposte progettuali calate all’interno di un preciso contesto culturale e territoriale. I nuovi manufatti devono sapersi relazionare ai caratteri del luogo in cui si collocano, aree poste in contesti esterni in una dimensione paesaggistica e culturale complessa e stratificata. Luogo e paesaggio costituiscono quindi i termini generali di un’indagine che assume il valore di una ricerca progressiva finalizzata alla conoscenza decisiva per la progettazione, di realtà fortemente caratterizzate dalla dimensione archeologica paesaggistica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I gruppi risolubili sono tra gli argomenti più studiati nella storia dell'algebra, per la loro ricchezza di proprietà e di applicazioni. Questa tesi si prefigge l'obiettivo di presentare tali gruppi, in quanto argomento che esula da quelli usualmente trattati nei corsi fondamentali, ma che diventa fondamentale in altri campi di studio come la teoria delle equazioni. Il nome di tale classe di gruppi deriva infatti dalla loro correlazione con la risolubilità per formule generali delle equazioni di n-esimo grado. Si ha infatti dalla teoria di Galois che un'equazione di grado n è risolubile per radicali se e solo se il suo gruppo di Galois è risolubile. Da questo spunto di prima e grande utilità, la teoria dei gruppi risolubili ha preso una propria strada, tanto da poter caratterizzare tali gruppi senza dover passare dalla teoria di Galois. Qui viene infatti presentata la teoria dei gruppi risolubili senza far uso di tale teoria: nel primo capitolo esporrò le definizioni fondamentali necessarie per lo studio dei gruppi risolubili, la chiusura del loro insieme rispetto a sottogruppi, quozienti, estensioni e prodotti, e la loro caratterizzazione attraverso la serie derivata, oltre all'esempio più caratteristico tra i gruppi non risolubili, che è quello del gruppo simmetrico. Nel secondo capitolo sono riportati alcuni esempi e controesempi nel caso di gruppi non finiti, tra i quali vi sono il gruppo delle isometrie del piano e i gruppi liberi. Infine nel terzo capitolo viene approfondito il caso dei gruppi risolubili finiti, con alcuni esempi, come i p-gruppi, con un’analisi della risolubilità dei gruppi finiti con ordine minore o uguale a 100.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduzione allo studio dell'omotopia di varietà differenziabili in relazione ai punti critici di funzioni di Morse definite su di esse con particolare attenzione al cambiamento di omotopia dell'insieme di sottolivello al passaggio di un valore critico. Applicazione al complesso di catene di Morse-Smale-Witten e dimostrazione dell'equivalenza tra l'omologia definita da questo complesso e l'omologia classica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

VIRTIS, a bordo di Venus Express, è uno spettrometro in grado di operare da 0.25 a 5 µm. Nel periodo 2006-2011 ha ricavato un'enorme mole di dati ma a tutt'oggi le osservazioni al lembo sono poco utilizzate per lo studio delle nubi e delle hazes, specialmente di notte. Gli spettri al lembo a quote mesosferiche sono dominati dalla radianza proveniente dalle nubi e scatterata in direzione dello strumento dalle hazes. L'interpretazione degli spettri al lembo non può quindi prescindere dalla caratterizzazione dell'intera colonna atmosferica. L'obiettivo della tesi è di effettuare un’analisi statistica sulle osservazioni al nadir e proporre una metodologia per ricavare una caratterizzazione delle hazes combinando osservazioni al nadir e al lembo. La caratterizzazione delle nubi è avvenuta su un campione di oltre 3700 osservazioni al nadir. È stato creato un ampio dataset di spettri sintetici modificando, in un modello iniziale, vari parametri di nube quali composizione chimica, numero e dimensione delle particelle. Un processo di fit è stato applicato alle osservazioni per stabilire quale modello potesse descrivere gli spettri osservati. Si è poi effettuata una analisi statistica sui risultati del campione. Si è ricavata una concentrazione di acido solforico molto elevata nelle nubi basse, pari al 96% in massa, che si discosta dal valore generalmente utilizzato del 75%. Si sono poi integrati i risultati al nadir con uno studio mirato su poche osservazioni al lembo, selezionate in modo da intercettare nel punto di tangenza la colonna atmosferica osservata al nadir, per ricavare informazioni sulle hazes. I risultati di un modello Monte Carlo indicano che il numero e le dimensioni delle particelle previste dal modello base devono essere ridotte in maniera significativa. In particolare si osserva un abbassamento della quota massima delle hazes rispetto ad osservazioni diurne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato, abbiamo tentato di modellizzare i processi che regolano la presenza dei domini proteici. I domini proteici studiati in questa tesi sono stati ottenuti dai genomi batterici disponibili nei data base pubblici (principalmente dal National Centre for Biotechnology Information: NCBI) tramite una procedura di simulazione computazionale. Ci siamo concentrati su organismi batterici in quanto in essi la presenza di geni trasmessi orizzontalmente, ossia che parte del materiale genetico non provenga dai genitori, e assodato che sia presente in una maggiore percentuale rispetto agli organismi più evoluti. Il modello usato si basa sui processi stocastici di nascita e morte, con l'aggiunta di un parametro di migrazione, usato anche nella descrizione dell'abbondanza relativa delle specie in ambito delle biodiversità ecologiche. Le relazioni tra i parametri, calcolati come migliori stime di una distribuzione binomiale negativa rinormalizzata e adattata agli istogrammi sperimentali, ci induce ad ipotizzare che le famiglie batteriche caratterizzate da un basso valore numerico del parametro di immigrazione abbiano contrastato questo deficit con un elevato valore del tasso di nascita. Al contrario, ipotizziamo che le famiglie con un tasso di nascita relativamente basso si siano adattate, e in conseguenza, mostrano un elevato valore del parametro di migrazione. Inoltre riteniamo che il parametro di migrazione sia direttamente proporzionale alla quantità di trasferimento genico orizzontale effettuato dalla famiglia batterica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’idea del presente elaborato nasce da due elementi principali: l’attualità del tema in Giappone ma anche in Europa, e l’esistenza nella lingua giapponese di strutture grammaticali e sintattiche propriamente “maschili”. L’analisi della figura della donna nella società giapponese moderna è trattata attraverso un breve excursus che va dalla mitologia alla Seconda Guerra Mondiale. Il mito presenta la femminilità come valore, e genera una società matriarcale. Tuttavia, l’influenza delle religioni e lo sviluppo del sistema feudale ben presto orientano la società verso un rigido patriarcato. Nonostante la Restaurazione Meiji abbia dato impulso ai primi movimenti di riforma in materia di diritti delle donne, è solo durante il periodo Taishō che la società assimila influenze progressiste e vedute più aperte, e lo status della donna diviene oggetto di riforme e conquiste. Nella seconda metà degli anni Trenta il clima oppressivo in vista della Seconda Guerra Mondiale predilige ancora una volta il ruolo femminile tradizionale plasmato dalla cultura patriarcale. Per la prima volta, durante l’Occupazione statunitense viene proposto un modello femminile alternativo, che sembra promuovere un’immagine diversa della donna. Tuttavia, tale fenomeno indietreggia non appena mutano le priorità degli Stati Uniti in Giappone. In seguito, lo studio della figura della donna nella società è trattata tramite l’analisi della Costituzione del 1946 e delle leggi in materia di famiglia, istruzione e occupazione. Tale analisi risulta interessante in quanto riflette l’andamento altalenante che caratterizza la società giapponese nell'ambito dell’eguaglianza di genere. Inoltre, è riportata l’analisi critica delle leggi in materia di eguaglianza di genere e pari opportunità in ambito lavorativo. L’analisi delle leggi permette di comprendere le tendenze delle nuove generazioni emerse negli ultimi anni, in particolare lo stile di vita della donna del Giappone contemporaneo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli aerosol, sospensione colloidale in aria di particelle solide o liquide, sono parte integrante dell’atmosfera. Essi interagiscono con la radiazione solare influenzando il clima (effetto primario e secondario) e la visibilità atmosferica. Gli aerosol hanno effetti sulla salute umana con patologie degli apparati cardiovascolare e circolatorio. La presente tesi affronta alcuni aspetti critici dei contatori ottici di particelle (OPC), utilizzati per caratterizzare l’aerosol ambientale. Gli OPC si basano sullo scattering luminoso per fornire la concentrazione in numero e la distribuzione dimensionale degli aerosol in tempo reale. Gli obiettivi di questa tesi sono: 1)caratterizzare e migliorare le prestazioni di un OPC di nuova concezione (CompactOPC N1, Alphasense; in seguito COPC) rispetto a un OPC standard commerciale (Grimm 1.108; in seguito GRM); 2)realizzare un banco di prova per la calibrazione di un OPC utilizzato in camere bianche e ambienti sanitari (Laser Particle Sensor 3715-00, Kanomax; in seguito LPS). Per questa attività ha mostrato interesse un’azienda locale (Pollution Clean Air Systems S.p.A.; Budrio, BO). Le prove sperimentali sono state effettuate con aerosol indoor e con particelle monodisperse di latex polistirene (PSL) di dimensioni differenti campionando in parallelo con i diversi OPC e su filtro per osservazioni al microscopio elettronico a scansione (SEM). In questo modo si è ottenuto un valore assoluto di riferimento per la concentrazione di aerosol. I risultati ottenuti indicano un buon accordo tra le concentrazioni di particelle fornite dal GRM e quelle ottenute al SEM. Il lavoro ha inoltre permesso di migliorare le prestazioni del COPC modificando la versione di base. Inoltre, è stata effettuata la calibrazione del LPS tramite il banco di prova realizzato nella tesi. Il lavoro sperimentale è stato svolto presso il Laboratorio di Aerosol e Fisica delle Nubi dell’Istituto di Scienze dell’Atmosfera e del Clima (ISAC) del Consiglio Nazionale delle Ricerche (CNR) a Bologna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La congestione del traffico è un fenomeno molto familiare, con il quale si ha a che fare nelle più svariate occasioni. Dal punto di vista fisico, il flusso del traffico rappresenta un sistema di particelle interagenti (i ve- icoli) in condizione di non equilibrio. L’effetto complessivo di un sistema composto da molte particelle interagenti è la creazione di una instabil- ità, osservata empiricamente, nello stato di free flow (scorrimento libero), causata dall’aumentare delle fluttuazioni. In questi casi di parla di phan- tom traffic jam, ovvero una congestione che ha origine senza cause appar- enti, come incidenti o lavori in corso. Sarà dimostrato come la condizione di stop & go si verifichi spontaneamente se la densità media dei veicoli eccede un certo valore critico. L’importanza di poter predire una congestione stradale non è un problema puramente matematico, ma ha risvolti socio-economici non indifferenti. Infatti, le caratteristiche della mobilità e dei sistemi di trasporto sono strettamente legate alla struttura della comunità e alla qualità della vita. Con il seguente studio si cercherà di trovare un osservabile facilmente calcolabile, che potrebbe essere un predittore della formazione di uno stato congestionato con un intervallo di tempo sufficientemente adeguato. A tal fine sono state prese in considerazione misure relative alle condizioni del traffico su strade provinciali dell’Emilia-Romagna, tramite un sistema MTS composto da 3509 spire che registra i passaggi delle macchine; in seguito, per poter avere una comprensione maggiore dei fenomeni che si manifestano durante la transizione a stato congestionato, si è provveduto a creare un modello matematico utilizzato per le simulazioni al computer. I risultati ottenuti dalle simulazioni, poi, sono stati utilizzati per trovare l’osservabile cercato nei dati pervenuti dalle strade campione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gran parte del patrimonio edilizio italiano è costituito da un'edilizia minore realizzata per lo più negli anni successivi al secondo dopoguerra. Una delle più significative esperienze di ricostruzione è rappresentata dai quartieri Ina-Casa, che oltre a rispondere all'elevata richiesta abitativa, hanno contribuito a dare una forma all'espansione disorganizzata delle città e si sono rivelati l'ultima vera occasione per gli architetti di essere protagonisti della storia nazionale. Tuttavia, ad oggi, manca la consapevolezza diffusa del grande valore storico, identitario e patrimoniale di queste porzioni di città e della necessità di un congruo intervento di valorizzazione e riqualificazione. Specialmente nelle piccole realtà, come Cesena, questo ha comportato una forte alterazione dei caratteri originari secondo scelte arbitrarie ed interventi disomogenei. A seguito dell'analisi approfondita della piccola unità di vicinato della Fiorita, si è deciso di adottare un approccio metodologico diversificato tra aspetti urbanistici e relativi al singolo alloggio. Da una parte è stato elaborato un progetto urbanistico che tenesse conto di tutte le specificità del luogo, in particolare della presenza di una popolazione residente molto attiva e determinata nella valorizzazione del proprio quartiere. Dall'altra è stato redatto un manuale di possibili interventi, pensati per rispondere alle attuali esigenze estetiche, prestazionali e funzionali dell'alloggio, corredato da un sistema incentivante a punteggio. Nell'insieme questa esperienza evidenzia le potenzialità di un progetto di rigenerazione urbana che può essere sperimentato anche in altri contesti della città.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo dell'elaborato è di riproporre i metodi utilizzati dai dottori Pessenhofer H. e Kenner T., e in particolare dimostrarne l'efficienza, per determinare in modo non invasivo gli andamenti di alcuni parametri cardiovascolari tra i quali la pressione ventricolare e quella arteriosa. Utilizzando il software di calcolo Matlab ne viene simulato il metodo e testata l'affidabilità partendo dall'ipotesi di avere a disposizione alcuni parametri noti come: l'andamento dell'elastanza ventricolare tempo variante, la forma d'onda triangolare della portata aortica, il volume sistolico detto anche ''Stroke Volume'', il valore del volume ventricolare di correzione, gli intervalli di tempo sistolici e la curva della pressione arteriosa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto è il proseguimento di una tesi di laurea1 in cui si è studiato un metodo di analisi della salute della pelle non invasivo. A tale scopo si è approfondito il tema della spettroscopia d'impedenza ed è stato realizzato un sistema per la loro misura. Questo sistema prevede l'utilizzo di una parte analogica formata da un generatore di segnale sinusoidale a frequenza variabile e la circuiteria per estrarre i valori efficaci di tensione e corrente e il valore di fase. La parte digitale, invece, condiziona il segnale del blocco analogico agendo su trimmer digitali, acquisisce i dati e li trasmette tramite la UART. Lo strumento effettuava le misurazioni ed inviava continuamente i dati grezzi al computer, tramite un convertitore UART/USB, risultando poco versatile. L'obiettivo del progetto è realizzare una piattaforma software che comunichi con l'hardware, permettendo la configurazione dello strumento e la manipolazione dei dati grezzi ricevuti, svincolando quindi l'utente dai problemi di basso livello. Si è studiato un protocollo di comunicazione che permette la trasmissione di maggiore informazione e sono stati scelti dei comandi mnemonici che lo strumento possa facilmente interpretare. Il progetto prevede quindi una prima fase di modifica del vecchio firmware, in modo che il microcontrollore possa leggere e comprendere i dati ricevuti tramite la UART. Nella seconda fase si è sviluppato il software utilizzando il linguaggio di programmazione Java. Lo sviluppo comprende lo studio delle librerie grafiche offerte da JavaFX (soprattutto per la rappresentazione dei dati grezzi in grafici a due assi), di un metodo di gestione e salvataggio su disco delle impostazioni del sistema, della comunicazione seriale e infine del sistema software nella sua completezza. Alcune prove sperimentali sono infine state svolte per verificare la funzionalità dei due sistemi, firmware e software.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi è trattato il tema della soddisfacibilità booleana o proposizionale, detta anche SAT, ovvero il problema di determinare se una formula booleana è soddisfacibile o meno. Soddisfacibile significa che è possibile assegnare le variabili in modo che la formula assuma il valore di verità vero; viceversa si dice insoddisfacibile se tale assegnamento non esiste e se quindi la formula esprime una funzione identicamente falsa. A tal fine si introducono degli strumenti preliminari che permetteranno di affrontare più approfonditamente la questione, partendo dalla definizione basilare di macchina di Turing, affrontando poi le classi di complessità e la riduzione, la nozione di NP-completezza e si dimostra poi che SAT è un problema NP-completo. Infine è fornita una definizione generale di SAT-solver e si discutono due dei principali algoritmi utilizzati a tale scopo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si inizia generalizzando la teoria dei gruppi a categorie qualsiasi, quindi senza necessariamente un insieme sostegno, studiando anche i cogruppi, ovvero gli oggetti duali dei gruppi, e caratterizzando in termini categoriali tali strutture. Vengono poi studiati oggetti topologici con la struttura di gruppo generalizzato vista inizialmente, compatibile con la struttura topologica. L'utilità degli H-gruppi e dei co-H-gruppi è specialmente in topologia algebrica, dove la struttura di questi oggetti fornisce molte informazioni sul loro comportamento, in termini di gruppi di omotopia e di più generici gruppi di mappe fra loro e altri spazi. Vengono poi dati esempi di questi oggetti, e si studia come i co-H-gruppi, in particolare, permettono di definire i gruppi di omotopia e di dimostrare i risultati fondamentali della teoria dell'omotopia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli anni la funzione dei social network è cambiata molte volte. Alle origini i social network erano uno strumento di connessione tra amici, ora sono siti internet in cui le persone mettono informazioni e quando un social network ha milioni di utenti, diventa un’incredibile sorgente di dati. Twitter è uno dei siti internet più visitati, e viene descritto come “the SMS of internet”, perchè è un social network che permette ai suoi utenti di inviare e leggere messaggi corti, di 140 caratteri, chiamati “tweets”. Con il passare del tempo Twitter `e diventato una fonte fondamentale di notizie. Il suo grande numero di utenti permette alle notizie di espandersi nella rete in modo virale. Molte persone hanno cercato di analizzare il potere dei tweet, come il contenuto positivo o negativo, mentre altri hanno cercato di capire se avessero un potere predittivo. In particolare nel mondo finanziario, sono state avviate molte ricerche per verificare l’esistenza di una effettiva correlazione tra i tweets e la fluttuazione del mercato azionario. L’effettiva presenza di tale relazione unita a un modello predittivo, potrebbe portare allo sviluppo di un modello che analizzando i tweets presenti nella rete, relativi a un titolo azionario, dia informazioni sulle future variazioni del titolo stesso. La nostra attenzione si è rivolata alla ricerca e validazione statistica di tale correlazione. Sono stati effettuati test su singole azioni, sulla base dei dati disponibili, poi estesi a tutto il dataset per vedere la tendenza generale e attribuire maggior valore al risultato. Questa ricerca è caratterizzata dal suo dataset di tweet che analizza un periodo di oltre 2 anni, uno dei periodi più lunghi mai analizzati. Si è cercato di fornire maggior valore ai risultati trovati tramite l’utilizzo di validazioni statistiche, come il “permutation test”, per validare la relazione tra tweets di un titolo con i relativi valori azionari, la rimozione di una percentuale di eventi importanti, per mostrare la dipendenza o indipendenza dei dati dagli eventi più evidenti dell’anno e il “granger causality test”, per capire la direzione di una previsione tra serie. Sono stati effettuati anche test con risultati fallimentari, dai quali si sono ricavate le direzioni per i futuri sviluppi di questa ricerca.