964 resultados para parchi divertimento teoria dei grafi analisi combinatoria
Resumo:
Il capitale sociale e la qualità istituzionale sono due fenomeni che, da circa venti anni, hanno assunto il ruolo di protagonisti all’interno delle scienze sociali. Anche se per molto tempo sono stati analizzati separatamente, già dalla loro definizione è possibile intuire come essi rappresentino due facce della stessa medaglia. Questo lavoro ha l’obiettivo di comprendere quale è le relazione che lega il capitale sociale e la qualità istituzionale all’interno delle regioni dell’Unione Europea. Nonostante buona parte della letteratura si sia maggiormente dedicata all’analisi dei due fenomeni a livello nazionale, in questo elaborato si ritiene che la dimensione territoriale regionale sia l’unità di misura più idonea per analizzarli entrambi. La prima parte del lavoro analizza il capitale sociale sia da un punto di vista definitorio che da un punto di vista più prettamente empirico, suddividendolo in diversi elementi. Il capitale sociale è un fenomeno estremamente multidimensionale, analizzarne solo una parte condurrebbe ad un’analisi parziale ed approssimativa. All’interno del testo vengono individuate cinque dimensioni, utilizzate successivamente per la creazione di un nuovo indice di capitale sociale regionale. Nella seconda parte si affronta il tema delle istituzioni e della qualità istituzionale. Dopo aver definito le istituzioni, si provvede ad effettuare una rassegna degli indici più comunemente utilizzati per misurarne la qualità, selezionando l’European Quality of Government Index del Quality of Government Institute di Göteborg come il più appropriato, sia per la sua definizione di governance che per l’unità di analisi prescelta. Nella terza parte, infine, in seguito ad un’analisi di quella parte di letteratura che ritiene i due fenomeni indissolubilmente legati ed utilizzando l’indice di capitale sociale regionale sviluppato nel primo capitolo, si propone una risposta, sicuramente parziale e non definitiva, alla domanda che da vent’anni anima questo interessante filone di ricerca: che relazione sussiste tra qualità istituzionale e capitale sociale?
Resumo:
La tesi ha natura sperimentale ed è mirata alla valutazione, attraverso l’uso di un programma agli elementi finiti tridimensionale, dell’interazione tra lo scavo del pozzo di introduzione scudi e le Mura Aureliane adiacenti a Porta Asinaria, a Roma. La prima parte della tesi si è concentrata sulla caratterizzazione geotecnica, a partire dai dati ricavati dalle campagne d’indagine eseguite nel tempo. Una volta effettuata la caratterizzazione geotecnica si è passati alla calibrazione del modello costitutivo per il terreno; si è scelto di adottare un legame costitutivo elasto-plastico incrudente, l’Hardening Soil Model with Small Strain Stiffness. Si è quindi passati alla definizione geometrica e dei materiali, utilizzando i rilievi strutturali e topografici, e alla conseguente definizione dei parametri del modello costitutivo adottato per la muratura e per il nucleo interno. In questo caso è stato adottato il modello di Mohr-Coulomb. La geometria globale è stata infine importata dal programma di calcolo PLAXIS 3D a partire da un modello tridimensionale realizzato con il programma Autocad Civil 3D. L'analisi agli elementi finiti ha valutato la realizzazione di diverse configurazioni possibili riguardanti la modellazione del pozzo e di eventuali opere di mitigazione degli effetti, quali lo sbancamento a tergo delle Mura e il successivo rinterro, a scavo ultimato. Si è inoltre analizzata l’influenza provocata da un possibile degrado della muratura. In ultimo sono stati analizzati e commentati i risultati di ciascun’analisi eseguita, in termini di stati deformativi e tensionali, ponendo l’attenzione sulle differenze di comportamento rilevate nelle diverse configurazioni adottate.
Resumo:
La presente tesi ha come obiettivo quello di illustrare il flusso informativo che gestisce lo scambio dei dati relativi a cure radioterapiche nell’ambiente di medicina nucleare. La radioterapia comprende tutte quelle cure a base di sostanze radioattive o radiazioni che vengono somministrate a scopo diagnostico o terapeutico. Le due tecniche più utilizzate sono la brachiradioterapia e la radioterapia a fasci esterni. La prima è utilizza solo in casi selezionati di tumori direttamente accessibili e la sua caratteristica principale è la rapida diminuzione della dose con l'allontanarsi dalla sorgente, la seconda tecnica invece consiste nell’irradiare la zona interessata dall’esterno, utilizzando come sorgente di radiazioni una macchina chiamata acceleratore lineare, posta all’esterno del corpo del paziente. Questa terapia ha come obiettivo primario quello di ottenere la migliore distribuzione di dose nel volume bersaglio, risparmiando quanto più possibile i tessuti sani. Già dalla nascita della radioterapia, questa tecnica era caratterizzata dalla presenza di immagini digitali, cioè al contrario di altri reparti radiologici dove le immagini diagnostiche venivano impresse su pellicole, qui le informazioni circolavano già in formato elettronico. Per questo motivo già da subito si è avvertita l’esigenza di trovare una modalità per lo scambio, in maniera efficiente e sicura, di dati clinici per organizzare al meglio la cura del paziente e la pianificazione, anche con macchinari di diversi produttori, del trattamento radioterapico. In tutto questo ha svolto un ruolo fondamentale la proposta di IHE del framework di medicina nucleare, dove si dettavano linee guida per coordinare in maniera semplice e vantaggiosa l’integrazione informativa dei vari attori del processo di cura radioterapico.
Resumo:
Il lavoro di questa tesi è incentrato sulla sintesi di film nanoparticellari di TiO2 con drogaggio di vanadio e analisi delle loro proprietà, prodotti tramite la tecnica IGC. Lo studio è finalizzato ad ottenere un materiale idoneo per la costruzione di fotoelettrodi da utilizzare per la produzione di idrogeno tramite la fotoelettrolisi dell'acqua. Si è impiegata la titania perché è uno dei materiali più promettenti grazie alla sua facilità di fabbricazione, il basso costo, la resistenza alla corrosione in soluzioni elettrolitiche e alla fotocorrosione e alle sue buone proprietà fotocatalitiche. Il drogaggio di vanadio rappresenta una possibile soluzione dei principali problemi che affliggono il materiale, come lo scarso assorbimento del range visibile e la rapida ricombinazione dei portatori di carica. Nel primo capitolo è presente una breve descrizione teorica del processo di produzione di idrogeno tramite split fotocatalitico dell'acqua all'interno di PEC nelle quali la TiO2 è utilizzata come fotoanodo. Nel secondo capitolo è presente una breve digressione sulle proprietà morfologico-strutturali, cristalline, elettroniche e sulla stabilità e le trasformazioni di fase dei principali polimorfi della TiO2. Infine una descrizione del sistema Titanio-Vanadio. Nel terzo capitolo viene presentato il sistema di crescita sia illustrando la teoria che sta dietro alla tecnica che descrivendo nei dettagli l'apparato IGC. Vengono infine presentati i campioni sintetizzati durante questo lavoro di tesi. Nel quarto capitolo vengono presentati i risultati delle indagini condotte per determinare le proprietà dei nostri campioni. E' stata dapprima effettuata un'analisi morfologica con un SEM e una semi-quantitativa con l'EDX. Sono state determinate le proprietà strutturali e la presenza delle fasi cristalline, a diversi trattamenti termici, con l'XRD. Si sono poi testate le proprietà ottiche e in particolare dell'assorbimento con misure di trasmittanza spettrale. Infine si è caratterizzata la struttura locale elettronica e cristallina tramite XAS e le dinamiche di rilassamento dei portatori di carica con TR-XAS.
Resumo:
Nel presente lavoro di tesi, in seguito ad acquisizioni di dati effettuate nella sala prove del "Laboratorio di Macchine e Propulsione" della Scuola di Ingegneria e Architettura di Forlì sul turboshaft Allison 250 C18, in una prima fase sono state ricavate le mappe prestazionali dei singoli componenti del motore, elaborando i dati sperimentali in ambiente MatLab. Le acquisizioni sono state effettuate mediante l'utilizzo di sensori di pressione, temperatura e velocità installati in precedenza sul motore e opportunamente calibrati. In seguito alla realizzazione delle mappe prestazionali, si è passati all'allestimento completo di un modello dinamico in ambiente Simulink, del motore Allison 250 C18. Tale modello riproduce, in opportuni blocchi, ciascun componente facente parte della motorizzazione. Ogni blocco riceve in ingresso le caratteristiche fisiche di interesse del flusso (temperatura, pressione, calore specifico a pressione costante e gamma) provenienti dal blocco precedente tramite un "filo", le rielabora al suo interno risolvendo le equazioni tipiche di ciascun componente e interpolando le mappe di prestazione ricavate precedentemente in MatLab, e le invia come input al blocco successivo o in retroazione ai blocchi precedenti. In ogni blocco è stato realizzato un sistema di dinamica di pressione che, ad ogni istante, risolve un'equazione differenziale dipendente dalla differenza di portata a monte e a valle di un componente e dal volume di controllo, che restituisce il valore di pressione in uscita proporzionale alla variazione di portata stessa. Nel presente lavoro di tesi si è cercato di stabilizzare questo complesso sistema in una condizione di progetto, fissata a 30000 rpm del gruppo gas generator. Un sistema di controllo del numero di giri tramite variazione di portata di combustibile è stato realizzato al fine di poter, in futuro, far funzionare il modello anche fuori dalla condizione di progetto e riuscire a simulare l'andamento delle prove sperimentali reali.
Resumo:
Questo lavoro di tesi si occupa dello studio dei buchi neri e delle loro proprietà termodinamiche da un punto di vista teorico. Nella prima parte si affronta una analisi teorico-matematica che mostra la soluzione dell’equazione di Einstein in relatività generale per un problema a simmetria sferica. Da questa soluzione si osserva la possibile presenza nell’universo di oggetti ai quali nemmeno alla luce è data la possibilità di fuggire, chiamati buchi neri. Ad ogni buco nero è associato un orizzonte degli eventi che si comporta come una membrana a senso unico: materia e luce possono entrare ma niente può uscire. E` studiata inoltre la possibile formazione di questi oggetti, mostrando che se una stella supera un certo valore critico di massa, durante la fase finale della sua evoluzione avverrà un collasso gravitazionale che nessuna forza conosciuta sarà in grado di fermare, portando alla formazione di un buco nero. Nella seconda parte si studiano le leggi meccaniche dei buchi neri. Queste leggi descrivono l’evoluzione degli stessi attraverso parametri come l’area dell’orizzonte degli eventi, la massa e la gravità di superficie. Si delinea quindi una analogia formale tra queste leggi meccaniche e le quattro leggi della termodinamica, con l’area dell’orizzonte degli eventi che si comporta come l’entropia e la gravità di superficie come la temperatura. Nella terza parte, attraverso l’utilizzo della meccanica quantistica, si mostra che l’analogia non è solo formale. Ad un buco nero è associata l’emissione di uno spettro di radiazione che corrisponde proprio a quello di un corpo nero che ha una temperatura proporzionale alla gravità di superficie. Si osserva inoltre che l’area dell’orizzonte degli eventi può essere interpretata come una misura della informazione contenuta nel buco nero e di conseguenza della sua entropia.
Resumo:
La tesi introduce il problema matematico della rovina del giocatore dopo un'introduzione storica relativa allo sviluppo del gioco d'azzardo ed alla sua concezione sociale. Segue un'analisi di alcuni particolari giochi con un approfondimento sul calcolo della probabilità di vittoria e sul gioco equo. Infine sono introdotti alcuni preliminari matematici relativi alla misura, alle successioni di Bernoulli ed alle leggi dei grandi numeri, necessari per comprendere il problema.
Resumo:
In questa tesi viene affrontato il problema della stabilità delle strutture stellari da un punto di vista relativistico. La stella è approssimata ad un fluido perfetto a simmetria sferica, e le equazioni che ne governano la struttura vengono ricavate grazie alle risoluzione delle equazioni di campo della relatività generale in questo caso particolare. L'approssimazione di fluido perfetto permette anche di ricavare un'equazione di stato che lega densità di energia e pressione tramite un parametro, detto parametro di rigidità. Un'analisi del comportamento della materia al variare della densità consente di stabilire l'andamento di questo parametro, mentre uno studio delle piccole oscillazioni radiali della stella permette di stabilire quali sono i valori del parametro che consentono un equilibrio stabile. La stabilità risulta possibile in due differenti intervalli di densità, che corrispondono ai due tipici stadi finali dell'evoluzione stellare: nana bianca e stella di neutroni. Grazie alle equazioni che descrivono la struttura stellare è possibile stabilire, nei due intervalli di densità, quale sia il valore che la massa della stella non può superare: si ricavano il limite di Chandrasekhar e il limite di Oppenheimer-Volkoff. Infine viene mostrato come la relatività generale imponga un limite assoluto alla stabilità di una distribuzione di materia, sostenuta da una qualsiasi forza della natura: superato questo confine, la materia non può fare altro che collassare in un buco nero.
Resumo:
[Abstract]. Questo lavoro è finalizzato al confronto delle rivelazioni di canditati eventi di neutrino cosmico da parte di due esperimenti ANTARES ed ICECUBE. I due apparati, entrambi basati sulla rivelazione di radiazione Cherenkov generata da prodotti di interazione CC dei neutrini, si differenziano per la geometria del detector e per il mezzo in cui viene prodotta la radiazione, e hanno quindi sensibilità e risoluzione diverse. L'analisi dei dati è basata sulla rappresentazione delle direzioni di arrivo degli eventi su mappa celeste nei due sistemi di coordinate galattico ed equatoriale. La sovrapposizione della distribuzioni degli eventi ha permesso di evidenziare le zone di visibilità sulla mappa celeste caratteristiche di ciascun esperimento. Una successiva analisi statistica ha analizzato la frequenza delle occorenze di eventi del dataset di ANTARES in intorni di raggio crescente di eventi di ICECUBE, per valutare eventuali eventi identificabili nei due dataset. Questa analisi ha evidenziato la necessità di una selezione preventiva degli eventi del dataset di ANTARES, in base a criteri non solo topologici, in modo da permettere una eventuale identificazione di eventi coincidenti.
Resumo:
Questa tesi presenta alcuni aspetti dell'analisi convessa, in spazi vettoriali topologici, indirizzati allo studio di problemi generali di minimizzazione. Dai risultati geometrici dei teoremi di Hahn-Banach, attraverso la descrizione di proprietà fondamentali delle funzioni convesse e del sottodifferenziale, viene descritta la dualità di Fenchel-Moreau, e poi applicata a problemi generali di Ottimizzazione convessa, sotto forma prima di problema primale-duale, e poi come rapporto tra i punti di sella della Lagrangiana e le soluzioni della funzione da minimizzare.
Resumo:
Oggetto di questa tesi sono l’analisi e il commento dei temi e delle difficoltà che si presentano nella traduzione di un testo letterario dal tedesco all’italiano. Il lavoro è stato condotto su brani estratti dal romanzo Toskana für Arme: Liebeserklärung an ein italienisches Dorf di Uli T. Swidler, pubblicato in Germania nel 2009 dalla Kindler Verlag e ad oggi inedito in Italia. Sono state analizzate le caratteristiche del testo originale, sia in termini di genere che di contenuti, secondo le linee guida già stabilite nella teoria della traduzione, ed è stato stabilito un approccio traduttivo. La traduzione è stata disposta in un testo a fronte allo scopo di facilitare un confronto con il testo di partenza e di evidenziare determinate scelte. Essa è stata inoltre accompagnata da un commento al lavoro traduttivo riguardante le diverse tipologie di problemi riscontrati e di considerazioni fatte. Ulteriore oggetto di trattazione è stato il tema del confronto culturale che emerge chiaramente dal romanzo. In primo luogo tale concetto è stato illustrato secondo la sua definizione psicologica e antropologica, e in seguito sono state analizzate le specificità del rapporto interculturale che lega tedeschi e italiani, con un’attenzione particolare agli stereotipi che lo contraddistinguono storicamente e soprattutto a quelli che risultano dal testo preso in esame.
Resumo:
Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.
Resumo:
Obiettivo di questa tesi dal titolo “Analisi di tecniche per l’estrazione di informazioni da documenti testuali e non strutturati” è quello di mostrare tecniche e metodologie informatiche che permettano di ricavare informazioni e conoscenza da dati in formato testuale. Gli argomenti trattati includono l'analisi di software per l'estrazione di informazioni, il web semantico, l'importanza dei dati e in particolare i Big Data, Open Data e Linked Data. Si parlerà inoltre di data mining e text mining.
Resumo:
In questo lavoro si affronta l'argomento dei fermioni di Dirac nel grafene, si procederà compiendo nel primo capitolo un'analisi alla struttura reticolare del materiale per poi ricostruirne, sfruttando l'approssimazione di tigth-binding, le funzioni d'onda delle particelle che vivono negli orbitali del carbonio sistemate nella struttura reticolare e ricavarne grazie al passaggio in seconda quantizzazione l'Hamiltoniana. Nel secondo capitolo si ricavano brevemente le equazioni di Dirac e dopo una piccola nota storica si discutono le equazioni di Weyl arrivando all'Hamiltoniana dei fermioni a massa nulla mostrando la palese uguaglianza alla relazione di dispersione delle particelle del grafene. Nel terzo capitolo si commentano le evidenze sperimentali ottenute dalla ASPEC in cui si manifesta per le basse energie uno spettro lineare, dando così conferma alla teoria esposta nei capitoli precedenti.
Resumo:
La mobilità parlamentare è un indicatore dello stato di salute del sistema politico italiano. Dopo un brvee excursus storico della mobilità in Italia dal Regno d'Italia ai giorni nostri, si mostra un'analisi dei dati inerenti la Prima e la Seconda Repubblica italiana che dimostrano un fenomeno ora molto intenso per numero e modalità di migrazioni fra gruppi parlamentari. Vengono illustrate le principali sanzioni previste dalla normativa di altri Paesi europei ed extraeuropei, per concludere con l'illustrazione delle modifiche proposte alla Camera (e al Senato ) per far fronte a questo fenomeno. Al momento le proposte pur convergendo su alcuni punti, non sembrano ancora pronte per poter essere attuate.