995 resultados para Teoria degli insiemi
Resumo:
Nel corso degli ultimi venti anni si è assistito ad un incremento generalizzato della disoccupazione in Europa in particolare di quella giovanile: nel 1997 in molti paesi europei il tasso di disoccupazione della classe 15-24 anni è doppio rispetto a quello degli adulti. Questo lavoro si propone di dare una descrizione realistica del fenomeno della disoccupazione giovanile in Italia come risultante dalle prime 4 waves dell’indagine European Household Community Panel indagando la probabilità di transizione dallo stato di disoccupazione a quello di occupazione. Nell’ambito di un’impostazione legata alla teoria dei processi stocastici e dei dati di durata si indagheranno gli effetti che episodi di disoccupazione precedenti possono avere sulla probabilità di trovare un lavoro, in particolare, nell’ambito di processi stocastici più generali si rilascerà l’ipotesi di semi-markovianità del processo per considerare l’effetto di una funzione della storia passata del processo sulla transizione attuale al lavoro. La stima della funzione di rischio a vari intervalli di durata si dimostra più appropriata quando si tiene conto della storia passata del processo, in particolare, si verifica l’ipotesi che la possibilità di avere successo nella ricerca di un lavoro è negativamente influenzata dall’aver avuto in passato molte transizioni disoccupazione-occupazione-disoccupazione.
Resumo:
Nella presente analisi si è avuta l’eccezionale disponibilità di dati longitudinali su molti individui (6000studenti frequentanti le scuole superiori bolognesi). Per ottenere un modello che al meglio spiegasse e riproducesse l’andamento degli esiti scolastici (promozione alla classe successiva) tenendo conto del percorso scolastico nel tempo, si è scelto il modello a curva latente condizionato. La variabile risposta è combinazione lineare dell’esito di fine anno (Promosso/Non promosso); riassume, per ogni studente/anno scolastico, classe frequentata ed esito finale. Le variabili esplicative sono state selezionate tra le informazioni disponibili per gli individui. Vengono presentati alcuni dati aggregati, poi descritti i dati individuali che entreranno nel modello, evidenziando la composizione degli studenti. La prima fase è la stima del modello logistico, con specificazione delle criticità, che hanno indotto alla scelta successiva del modello dipendente dal tempo. Dopo la descrizione della metodologia principale utilizzata, la teoria del conditionalLCM, e la selezione degli indicatori di fitting, viene delineata la procedura di stima, e raggiunto il modello ottimale. Le variabili significative per spiegare l’andamento delle promozioni individuali nel tempo risultano: cittadinanza (italiani con risultati significativamente migliori degli stranieri), sesso (ragazze con percorso scolastico mediamente migliore dei ragazzi: la differenza risulta però significativa soltanto negli istituti tecnici e professionali), tipologia di scuola frequentata (studenti del liceo con risultati significativamente migliori di chi frequenta altri tipi di istituto). I risultati risultano fortemente dipendenti dai dati impiegati, specie riguardo al limite territoriale. Precedenti analisi evidenziavano una forte differenziazione dei risultati scolastici tra studenti del nord e del sud Italia, oltre che tra studenti dei comuni maggiormente popolati e studenti dei comuni di provincia. Sarebbe interessante disporre di dati individuali analoghi a quelli qui utilizzati, ma riferiti all’intero territorio nazionale, oppure ad un zona maggiormente vasta dell’Italia, onde saggiare l’entità dell’influenza sul percorso scolastico,ed in particolare sulla regolarità, della differenza territoriale.
Resumo:
Il lavoro di ricerca descrive il percorso che ha portato alla redazione del Piano Strutturale del Verde del Comune di Senigallia (AN), quale strumento capace di migliorare la qualità di vita ed il benessere della città, intesa come ecosistema, e dei cittadini, quali parte integrante e, al tempo stesso, fruitori di suddetto ecosistema. Lo studio ha pertanto previsto dapprima un'analisi approfondita e dettagliata dell’intero territorio comunale e, successivamente, la stesura di linee guida e la definizione di soluzioni progettuali tipo indirizzate ad una pianificazione e gestione sostenibile del territorio. Il lavoro svolto non si limita alla descrizione del Piano Strutturale del Verde, ma illustra anche un caso studio francese, quale modello di analisi dell'iter successivo, che è consigliabile seguire dopo l'approvazione di questo tipo di Piani, al fine di renderli concreti ed operativi ed attuare, quindi, le linee guida da essi definite. L’obiettivo risulta dunque quello di evitare che questo importante strumento di pianificazione e gestione del territorio sia dimenticato in un cassetto degli Uffici Comunali.
Resumo:
Il cemento è il materiale da edilizia più comune al mondo e le problematiche ambientali associate all’utilizzo ed al ciclo produttivo sono numerose (rilascio di gas serra, scelta delle materie prime, risparmio energetico) e fortemente impattanti. Tuttavia, nonostante la sua diffusione sia globale e le proprietà siano note da millenni vi sono ancora alcuni processi che non sono stati correttamente spiegati. In particolare non esiste una teoria unica e consolidata che descriva efficacemente la microstruttura delle fasi minerali del cemento che si sviluppano successivamente all'idratazione, e come esso di conseguenza interagisca con principi attivi, organici o inorganici, di cui è noto l’effetto accelerante sulla cinetica di indurimento. Questa tesi si pone l'obiettivo di condurre uno studio dell'idratazione del clinker finemente macinato (CFM - principale componente di molti cementi) focalizzato sull’interazione tra elementi chimici presenti nella matrice cementizia (Calcio, Ferro e Alluminio) ed additivi acceleranti (Trietanolammina, Triisopropanolammina). Il fenomeno è stato studiato tramite osservazione dell'andamento del rilascio dei suddetti ioni su cementi in via di idratazione e tramite utilizzo di tecniche di microscopia elettronica e di diffrazione di raggi X. L'analisi del rilascio di ioni, effettuata mediante spettroscopia ad assorbimento atomico, è stata condotta al fine di approfondire l'azione di trietanolammina e triisopropanolammina sulle dinamiche di idratazione dei CFM nelle fasi precoci di idratazione, al fine di confrontare queste dinamiche con processi che avvengono in fasi successive e che coinvolgono la formazione delle principali fasi amorfe e cristalline responsabili delle proprietà del materiale. Da indagini di diffrattometria e microscopia sono inoltre state estrapolate interessanti considerazioni circa le cinetiche che portano alla formazione delle fasi cristalline tipiche dell'idratazione del cemento (portlandite, ettringite) in presenza e assenza di additivi. Nel corso dello studio sono stati sintetizzati alcuni composti alternativi agli additivi commerciali, sviluppati a partire da building blocks provenienti da fonti rinnovabili, portando quindi l'attenzione sulla sostenibilità del processo di progettazione delle molecole, anche alla luce della degradazione in ambiente delle sostanze sintetizzate. Tali molecole sono attualmente in fase di test presso i laboratori di Italcementi (ITC Group).
Resumo:
Il Soprintendente Alfredo Barbacci fu uomo di poliedrica formazione, perito nell’uso di metodiche innovative di restauro ed esperto delle tecniche di ricomposizione delle forme architettoniche dei complessi monumentali, danneggiati dai bombardamenti del secondo conflitto mondiale. Quel che, questo studio ha inteso indagare e comprendere, attraverso un approccio critico, sostanziato dalle carte d’archivio, è fondamentalmente il contributo, da egli ha offerto circa la valenza storica e architettonica del tessuto connettivo di base della città, da cui si originava - negli anni della sua attività - l’idea ancora inedita di un bene culturale e sociale nuovo: il centro storico tutto, con annessi monumenti, complessi architettonici nobili ed edilizia minore, di base. Dando avvio all’analisi sistematica delle teorie e della prassi di Alfredo Barbacci e alla lettura puntuale dei suoi scritti, sono stati razionalizzati il significato, le valenze e le implicazioni del termine edilizia minore all’interno del più ampio contesto del restauro dell’edilizia monumentale e alla luce degli elementi di tendenza, portati all’attenzione dal dibattito delle diverse scuole di pensiero sul restauro, a partire dai primi anni del sec. XX fino agli anni Settanta dello scorso secolo. Concretamente vi si evidenziano interessanti intuizioni e dichiarazioni, afferenti la necessità di un restauro del tipo integrato, da intendersi come strumento privilegiato di intervento sul tessuto nobile e meno nobile della città antica. Al termine della sua carriera, il contributo del Soprintendente Barbacci al dibattito scientifico si documenta da sé, nella compilazione a sua firma di quella parte della Relazione Franceschini, in cui si dava proposta di un corpo normativo alla necessità di guardare alla città storica come a un bene culturale e sociale, insistendo come al suo interno era d’uopo mantenere, nel corso di interventi restaurativi, un razionale equilibrio tra monumento ed edilizia minore già storicizzata e che non escludesse anche l’apparato paesaggistico di contorno.
Resumo:
I sistemi di versionamento moderni quali "git" o "svn" sono ad oggi basati su svariati algoritmi di analisi delle differenze (detti algoritmi di diffing) tra documenti (detti versioni). Uno degli algoritmi impiegati con maggior successo a tal proposito è il celebre "diff" di Unix. Tale programma è in grado di rilevare le modifiche necessarie da apportare ad un documento al fine di ottenerne un altro in termini di aggiunta o rimozione di linee di testo. L'insieme di tali modifiche prende nome di "delta". La crescente richiesta e applicazione dei documenti semi-strutturati (ed in particolar modo dei documenti XML) da parte della comunità informatica soprattutto in ambito web ha motivato la ricerca di algoritmi di diffing più raffinati che operino al meglio su tale tipologia di documenti. Svariate soluzioni di successo sono state discusse; algoritmi ad alte prestazioni capaci di individuare differenze più sottili della mera aggiunta o rimozione di testo quali il movimento di interi nodi, il loro riordinamento finanche il loro incapsulamento e così via. Tuttavia tali algoritmi mancano di versatilità. L'incapsulamento di un nodo potrebbe essere considerata una differenza troppo (o troppo poco) generale o granulare in taluni contesti. Nella realtà quotidiana ogni settore, pubblico o commerciale, interessato a rilevare differenze tra documenti ha interesse nell'individuarne sempre e soltanto un sottoinsieme molto specifico. Si pensi al parlamento italiano interessato all'analisi comparativa di documenti legislativi piuttosto che ad un ospedale interessato alla diagnostica relativa alla storia clinica di un paziente. Il presente elaborato di tesi dimostra come sia possibile sviluppare un algoritmo in grado di rilevare le differenze tra due documenti semi-strutturati (in termini del più breve numero di modifiche necessarie per trasformare l'uno nell'altro) che sia parametrizzato relativamente alle funzioni di trasformazione operanti su tali documenti. Vengono discusse le definizioni essenziali ed i principali risultati alla base della teoria delle differenze e viene dimostrato come assunzioni più blande inducano la non calcolabilità dell'algoritmo di diffing in questione.
Resumo:
Questo lavoro si occupa di studiare l’effetto delle rappresentazioni sociali della musica degli studenti universitari che diventeranno insegnanti di scuola dell’infanzia e in particolare i cambiamenti che intervengono durante il periodo di formazione universitaria sia italiana sia venezuelana. Obiettivo fondamentale è quindi realizzare un’analisi comparativa sulle seguenti tematiche: bambino musicale, competenze dell’insegnante e finalità dell’educazione musicale. Questo lavoro si è inserito all’interno del progetto “Il sapere musicale come rappresentazione sociale” (Addessi-Carugati 2010). L’ipotesi guida è che le concezioni implicite della musica funzionino come rappresentazioni sociali che influenzano le pratiche dell’insegnamento e dell’educazione musicale. Il primo capitolo, affronta i temi dei bambini, degli insegnanti e dell’educazione musicale nella scuola dell’infanzia in Italia e Venezuela. Nel secondo vengono presentati gli studi sui saperi musicali; la teoria delle rappresentazioni sociali (Moscovici 1981) e il progetto pilota realizzato presso l’Università di Bologna “Il sapere musicale come Rappresentazione Sociale”. Il capitolo successivo presenta l'analisi e l'interpretazione dell’indagine empirica effettuata su un gruppo di studenti dei corsi di formazione per insegnanti dell’Università di Mérida (Venezuela). Nel quarto capitolo si sviluppano riflessioni e discussioni riguardo i risultati dello studio comparativo; i piani e programmi di studio universitari e il profilo professionale musicale dell’insegnante. Le conclusioni finali illustrano come l’ipotesi iniziale sia effettivamente confermata: dall’analisi e interpretazione dei dati sembra che le concezioni implicite sui saperi musicali possedute dagli studenti influiscano sulla loro pratica professionale in qualità di futuri insegnanti. Si è anche osservato che le differenze incontrate sembrano essere dovute ai diversi tipi di variabili del contesto dove si trova l’insegnante di educazione musicale; e soprattutto ai significati espressi dai programmi di studi, dai contenuti didattici diversi, dai contesti sociali e culturali e dal curriculum universitario.
Resumo:
In questa tesi ci si occuperà di presentare alcuni aspetti salienti della teoria spettrale per gli operatori limitati negli spazi di Hilbert. Nel primo capitolo verranno presentate alcune nozioni fondamentali di analisi funzionale, necessarie per lo studio degli operatori. Il secondo capitolo si occupa invece di analizzare la teoria spettrale per operatori compatti. In particolare, verrà presentato il Teorema Spettrale per Operatori Normali Compatti e il Teorema dell'Alternativa di Fredholm. In seguito verrà applicata tale teoria alla risolubilità del problema di Dirichlet. Nel terzo capitolo verrà esteso quanto ottenuto per gli operatori compatti ad operatori limitati autoaggiunti e per gli operatori normali limitati, passando attraverso le famiglie spettrali.
Resumo:
Per Viollet-le-Duc lo “stile” «è la manifestazione di un ideale fondato su un principio» dove per principio si intende il principio d’ordine della struttura, quest’ultimo deve rispondere direttamente alla Legge dell’”unità” che deve essere sempre rispettata nell’ideazione dell’opera architettonica. A partire da questo nodo centrale del pensiero viollettiano, la presente ricerca si è posta come obiettivo quello dell’esplorazione dei legami fra teoria e prassi nell’opera di Viollet-le-Duc, nei quali lo “stile” ricorre come un "fil rouge" costante, presentandosi come una possibile inedita chiave di lettura di questa figura protagonista della storia del restauro e dell’architettura dell’Ottocento. Il lavoro di ricerca si é dunque concentrato su una nuova lettura dei documenti sia editi che inediti, oltre che su un’accurata ricognizione bibliografica e documentaria, e sullo studio diretto delle architetture. La ricerca archivistica si é dedicata in particolare sull’analisi sistematica dei disegni originali di progetto e delle relazioni tecniche delle opere di Viollet-le- Duc. A partire da questa prima ricognizione, sono stati selezionati due casi- studio ritenuti particolarmente significativi nell’ambito della tematica scelta: il progetto di restauro della chiesa della Madeleine a Vézelay (1840-1859) e il progetto della Maison Milon in rue Douai a Parigi (1857-1860). Attraverso il parallelo lavoro di analisi dei casi-studio e degli scritti di Viollet- le-Duc, si è cercato di verificare le possibili corrispondenze tra teoria e prassi operativa: confrontando i progetti sia con le opere teoriche, sia con la concreta testimonianza degli edifici realizzati.
Resumo:
Il presente lavoro si compone di una parte iniziale in cui si introducono i principi alla base della teoria della Relatività Generale, e viene discussa la loro effettiva importanza come elementi fondanti del lavoro di Einstein. Nel capitolo 1 si sviluppano i principali concetti di geometria differenziale utili alla comprensione dei risultati ottenuti nei capitoli successivi. In particolare viene mostrato un risultato notevole che permette di ricavare gli integrali primi del moto geodetico a partire dalla dipendenza del tensore metrico dalle coordinate utilizzate. Vengono poi brevemente introdotte le Equazioni di campo di Einstein. Nel capitolo 2 Viene ricavata la soluzione di Schwarzschild e le quantità conservate nel moto in caduta libera verso una sorgente a simmetria sferica e statica. Viene poi definito il concetto di orizzonte degli eventi. Infine nel capitolo 3 viene introdotta la metrica di Kerr, e si suggerisce come questa possa essere indotta da una sorgente massiva rotante. Vengono analizzati gli integrali primi del moto di particelle in caduta libera e da questi viene ricavata l'espressione dell'effetto di trascinamento. Vengono poi introdotto il concetto di limite statico e la definizione di ergosfera, e viene ricavata l'espressione del raggio dell'orizzonte degli eventi.
Resumo:
In questo lavoro di tesi si è sviluppato un sistema di supporto al fisioterapista per la definizione degli esercizi da far eseguire al paziente che consenta di automatizzare il controllo della corretta esecuzione degli esercizi stessi da parte del paziente. Si è realizzato un linguaggio per codificare gli esercizi ed un editor per poterli esprimere, attraverso il linguaggio, da parte dello specialista. E' stato realizzato un motore che riesca a valutare in modo automatico se il paziente sta eseguendo correttamente gli esercizi proposti, confrontando le pose riconosciute utilizzando il sensore Microsoft Kinect con le pose degli esercizi definiti attraverso l'editor. Il filo conduttore per la realizzazione del linguaggio e del motore è stata la teoria del Calcolo degli Eventi, estesa con il concetto di aspettativa.
Resumo:
La recente Direttiva 31/2010 dell’Unione Europea impone agli stati membri di riorganizzare il quadro legislativo nazionale in materia di prestazione energetica degli edifici, affinchè tutte le nuove costruzioni presentino dal 1° gennaio 2021 un bilancio energetico tendente allo zero; termine peraltro anticipato al 1° gennaio 2019 per gli edifici pubblici. La concezione di edifici a energia “quasi” zero (nZEB) parte dal presupposto di un involucro energeticamente di standard passivo per arrivare a compensare, attraverso la produzione preferibilmente in sito di energia da fonti rinnovabili, gli esigui consumi richiesti su base annuale. In quest’ottica la riconsiderazione delle potenzialità dell’architettura solare individua degli strumenti concreti e delle valide metodologie per supportare la progettazione di involucri sempre più performanti che sfruttino pienamente una risorsa inesauribile, diffusa e alla portata di tutti come quella solare. Tutto ciò in considerazione anche della non più procrastinabile necessità di ridurre il carico energetico imputabile agli edifici, responsabili come noto di oltre il 40% dei consumi mondiali e del 24% delle emissioni di gas climalteranti. Secondo queste premesse la ricerca pone come centrale il tema dell’integrazione dei sistemi di guadagno termico, cosiddetti passivi, e di produzione energetica, cosiddetti attivi, da fonte solare nell’involucro architettonico. Il percorso sia analitico che operativo effettuato si è posto la finalità di fornire degli strumenti metodologici e pratici al progetto dell’architettura, bisognoso di un nuovo approccio integrato mirato al raggiungimento degli obiettivi di risparmio energetico. Attraverso una ricognizione generale del concetto di architettura solare e dei presupposti teorici e terminologici che stanno alla base della stessa, la ricerca ha prefigurato tre tipologie di esito finale: una codificazione delle morfologie ricorrenti nelle realizzazioni solari, un’analisi comparata del rendimento solare nelle principali aggregazioni tipologiche edilizie e una parte importante di verifica progettuale dove sono stati applicati gli assunti delle categorie precedenti
Resumo:
La teoria dei sistemi dinamici studia l'evoluzione nel tempo dei sistemi fisici e di altra natura. Nonostante la difficoltà di assegnare con esattezza una condizione iniziale (fatto che determina un non-controllo della dinamica del sistema), gli strumenti della teoria ergodica e dello studio dell'evoluzione delle densità di probabilità iniziali dei punti del sistema (operatore di Perron-Frobenius), ci permettono di calcolare la probabilità che un certo evento E (che noi definiamo come evento raro) accada, in particolare la probabilità che il primo tempo in cui E si verifica sia n. Abbiamo studiato i casi in cui l'evento E sia definito da una successione di variabili aleatorie (prima nel caso i.i.d, poi nel caso di catene di Markov) e da una piccola regione dello spazio delle fasi da cui i punti del sistema possono fuoriuscire (cioè un buco). Dagli studi matematici sui sistemi aperti condotti da Keller e Liverani, si ricava una formula esplicita del tasso di fuga nella taglia del buco. Abbiamo quindi applicato questo metodo al caso in cui l'evento E sia definito dai punti dello spazio in cui certe osservabili assumono valore maggiore o uguale a un dato numero reale a, per ricavare l'andamento asintotico in n della probabilità che E non si sia verificato al tempo n, al primo ordine, per a che tende all'infinito.
Resumo:
La tesi descrive una sperimentazione condotta su quattro classi di scuola secondaria di secondo grado: la motivazione degli alunni è analizzata con riferimento a un laboratorio di Teoria dei Giochi. Nel primo capitolo è data la definizione di motivazione in matematica in relazione alle diverse teorie esistenti, elaborate da psicologi e ricercatori in Didattica della matematica; nel secondo capitolo si tratta di Teoria dei Giochi e si analizzano dal punto di vista matematico alcuni argomenti cui si fa riferimento nel laboratorio; nel terzo capitolo è descritta la sperimentazione e nel quarto le relative conclusioni.
Resumo:
Questa tesi si occupa dello studio delle sorgenti radio extragalattiche. Il presente lavoro è divisibile in due parti distinte. La prima parte descrive la morfologia e la struttura delle varie tipologie degli oggetti AGN, i fenomeni relativistici riguardo al moto delle radiosorgenti, il modello unificato, che consiste nel descrivere tutti i tipi di radiosorgenti presentati come la stessa tipologia di oggetto. La seconda parte vede l'analisi di due campioni: uno di radiogalassie, l'altro di BL Lacs. L'obiettivo consiste nel confrontare i valori di core dominance(rapporto tra potenza osservata e attesa) dei due campioni e dimostrare come la core domincance degli oggetti BL Lacertae sia maggiore di quella delle radiogalassie, al fine di mettere in evidenza un fattore a sostegno della teoria dei modelli unificati. Infine sono state inserite due appendici:l'una descrive un importante meccanismo di emissione come la radiazione di sincrotrone, l'altra presenta la tecnica di interferometria VLBI.