964 resultados para parchi divertimento teoria dei grafi analisi combinatoria


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si è studiato un corpus di importanti testi della letteratura Italiana utilizzando la teoria dei network. Le misure topologiche tipiche dei network sono state calcolate sui testi letterari, poi sono state studiate le loro distribuzioni e i loro valori medi, per capire quali di esse possono distinguere un testo reale da sue modificazioni. Inoltre si è osservato come tutti i testi presentino due importanti leggi statistiche: la legge di Zipf e quella di Heaps.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio del problema evolutivo degenere in uno spazio di Banach, con condizioni di tipo parabolico, attraverso la generalizzazione della teoria dei semigruppi al caso di operatori multivoci. Il problema viene dunque ridotto a un'equazione multivoca. Si riporta inoltre come esempio l'equazione del calore di Poisson.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo della tesi è quello di studiare una delle applicazioni della teoria dei campi finiti: il segnale GPS. A questo scopo si descrivono i registri a scorrimento a retroazione lineare (linear feedback shift register, LFSR), dispositivi utili in applicazioni che richiedono la generazione molto rapida di numeri pseudo-casuali. I ricevitori GPS sfruttano il determinismo di questi dispositivi per identificare il satellite da cui proviene il segnale e per sincronizzarsi con esso. Si inizia con una breve introduzione al funzionamento del GPS, poi si studiano i campi finiti: sottocampi, estensioni di campo, gruppo moltiplicativo e costruzione attraverso la riduzione modulo un polinomio irriducibile, fattorizzazione di polinomi, formula per il numero e metodi per la determinazione di polinomi irriducibili, radici di polinomi irriducibili, coniugati, teoria di Galois (automorfismo ed orbite di Frobenius, gruppo e corrispondenza di Galois), traccia, polinomio caratteristico, formula per il numero e metodi per la determinazione di polinomi primitivi. Successivamente si introducono e si esaminano sequenze ricorrenti lineari, loro periodicità, la sequenza risposta impulsiva, il polinomio caratteristico associato ad una sequenza e la sequenza di periodo massimo. Infine, si studiano i registri a scorrimento che generano uno dei segnali GPS. In particolare si esamina la correlazione tra due sequenze. Si mostra che ogni polinomio di grado n-1 a coefficienti nel campo di Galois di ordine 2 può essere rappresentato univocamente in n bit; la somma tra polinomi può essere eseguita come XOR bit-a-bit; la moltiplicazione per piccoli coefficienti richiede al massimo uno shift ed uno XOR. Si conclude con la dimostrazione di un importante risultato: è possibile inizializzare un registro in modo tale da fargli generare una sequenza di periodo massimo poco correlata con ogni traslazione di se stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elevata presenza dei residui dei farmaci nell’ambiente acquatico desta preoccupazione per la salute della fauna acquatica e per un eventuale rischio per l’uomo. Dopo l’assunzione, i farmaci vengono escreti come tali o come metaboliti attivi, risultando spesso resistenti ai processi di trattamento delle acque. Per questo motivo alcuni di essi sono pseudo-persistenti raggiungendo concentrazioni di ng-µg/L. I farmaci sono molecole disegnate per essere biologicamente attive a basse concentrazioni su bersagli specifici, per questo motivo possono indurre effetti anche su specie non target con bersagli molecolari simili all’uomo a concentrazioni ambientali. A tal proposito il presente lavoro intende investigare gli effetti della caffeina, ampiamente usata come costituente di bevande e come farmaco, presente nelle acque superficiali a concentrazioni di ng-µg/L. Come organismo di studio è stato scelto il Mytilus galloprovincialis, sfruttando le conoscenze disponibili in letteratura circa le sue risposte ai contaminanti ambientali. I mitili sono stati esposti in acquario a caffeina (5, 50 e 500 ng/L) per 7 giorni e poi analizzati attraverso una batteria di otto biomarker, alterazioni fisiologiche o biochimiche che forniscono informazioni circa lo stato di salute degli animali. I metodi utilizzati sono stati diversi a seconda dei biomarker (analisi citochimiche e saggi enzimatici). Le concentrazioni sono state scelte nel range ambientale. L’esposizione ha prodotto alterazioni della stabilità della membrana lisosomiale negli emociti e l’instaurarsi di processi di detossificazione nella ghiandola digestiva, evidenziati dall’aumento dell’attività della glutatione S-transferasi. Gli altri biomarker non mettono in evidenza che la caffeina, in queste condizioni sperimentali, possa indurre alterazioni della funzionalità lisosomiale, effetti ossidativi o neurotossici. I dati ottenuti sui mitili, quindi, suggeriscono che la caffeina, anche nel range di concentrazioni ambientali più elevato, possa essere considerata un contaminante che desta bassa preoccupazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La teoria dei sistemi dinamici studia l'evoluzione nel tempo dei sistemi fisici e di altra natura. Nonostante la difficoltà di assegnare con esattezza una condizione iniziale (fatto che determina un non-controllo della dinamica del sistema), gli strumenti della teoria ergodica e dello studio dell'evoluzione delle densità di probabilità iniziali dei punti del sistema (operatore di Perron-Frobenius), ci permettono di calcolare la probabilità che un certo evento E (che noi definiamo come evento raro) accada, in particolare la probabilità che il primo tempo in cui E si verifica sia n. Abbiamo studiato i casi in cui l'evento E sia definito da una successione di variabili aleatorie (prima nel caso i.i.d, poi nel caso di catene di Markov) e da una piccola regione dello spazio delle fasi da cui i punti del sistema possono fuoriuscire (cioè un buco). Dagli studi matematici sui sistemi aperti condotti da Keller e Liverani, si ricava una formula esplicita del tasso di fuga nella taglia del buco. Abbiamo quindi applicato questo metodo al caso in cui l'evento E sia definito dai punti dello spazio in cui certe osservabili assumono valore maggiore o uguale a un dato numero reale a, per ricavare l'andamento asintotico in n della probabilità che E non si sia verificato al tempo n, al primo ordine, per a che tende all'infinito.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di ricerca si propone di discutere il contributo che l’analisi dell’evoluzione storica del pensiero politico occidentale e non occidentale riveste nel percorso intellettuale compiuto dai fondatori della teoria contemporanea dell’approccio delle capacità, fondata e sistematizzata nei suoi contorni speculativi a partire dagli anni Ottanta dal lavoro congiunto dell’economista indiano Amartya Sen e della filosofa dell’Università di Chicago Martha Nussbaum. Ci si ripropone di dare conto del radicamento filosofico-politico del lavoro intellettuale di Amartya Sen, le cui concezioni economico-politiche non hanno mai rinunciato ad una profonda sensibilità di carattere etico, così come dei principali filoni intorno ai quali si è imbastita la versione nussbaumiana dell’approccio delle capacità a partire dalla sua ascendenza filosofica classica in cui assume una particolare primazia il sistema etico-politico di Aristotele. Il pensiero politico moderno, osservato sotto il prisma della riflessione sulla filosofia della formazione che per Sen e Nussbaum rappresenta la “chiave di volta” per la fioritura delle altre capacità individuali, si organizzerà intorno a tre principali indirizzi teorici: l’emergenza dei diritti positivi e sociali, il dibattito sulla natura della consociazione nell’ambito della dottrina contrattualista e la stessa discussione sui caratteri delle politiche formative. La sensibilità che Sen e Nussbaum mostrano nei confronti dell’evoluzione del pensiero razionalista nel subcontinente che passa attraverso teorici antichi (Kautylia e Ashoka) e moderni (Gandhi e Tagore) segna il tentativo operato dai teorici dell’approccio delle capacità di contrastare concezioni politiche contemporanee fondate sul culturalismo e l’essenzialismo nell’interpretare lo sviluppo delle tradizioni culturali umane (tra esse il multiculturalismo, il comunitarismo, il neorealismo politico e la teoria dei c.d. “valori asiatici”) attraverso la presa di coscienza di un corredo valoriale incentrato intorno al ragionamento rintracciabile (ancorché in maniera sporadica e “parallela”) altresì nelle tradizioni culturali e politiche non occidentali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo del presente lavoro è quello di analizzare il ben noto concetto di rotazione attraverso un formalismo matematico. Nella prima parte dell'elaborato si è fatto uso di alcune nozioni di teoria dei gruppi nella quale si definisce il gruppo ortogonale speciale in n dimensioni. Vengono studiati nel dettaglio i casi di rotazione in 2 e 3 dimensioni introducendo le parametrizzazioni più utilizzate. Nella seconda parte si introduce l'operatore di rotazione, il quale può essere applicato ad un sistema fisico di tipo quantistico. Vengono infine studiate le proprietà di simmetria di rotazione, definendone le caratteristiche e analizzando il caso particolare del potenziale centrale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Primi elementi della teoria dei semigruppi di operatori lineari e applicazione del metodo dei semigruppi alle equazioni differenziali alle derivate parziali di tipo parabolico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il contenuto fisico della Relatività Generale è espresso dal Principio di Equivalenza, che sancisce l'equivalenza di geometria e gravitazione. La teoria predice l'esistenza dei buchi neri, i più semplici oggetti macroscopici esistenti in natura: essi sono infatti descritti da pochi parametri, le cui variazioni obbediscono a leggi analoghe a quelle della termodinamica. La termodinamica dei buchi neri è posta su basi solide dalla meccanica quantistica, mediante il fenomeno noto come radiazione di Hawking. Questi risultati gettano una luce su una possibile teoria quantistica della gravitazione, ma ad oggi una simile teoria è ancora lontana. In questa tesi ci proponiamo di studiare i buchi neri nei loro aspetti sia classici che quantistici. I primi due capitoli sono dedicati all'esposizione dei principali risultati raggiunti in ambito teorico: in particolare ci soffermeremo sui singularity theorems, le leggi della meccanica dei buchi neri e la radiazione di Hawking. Il terzo capitolo, che estende la discussione sulle singolarità, espone la teoria dei buchi neri non singolari, pensati come un modello effettivo di rimozione delle singolarità. Infine il quarto capitolo esplora le ulteriori conseguenze della meccanica quantistica sulla dinamica dei buchi neri, mediante l'uso della nozione di entropia di entanglement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sono rari i problemi risolubili in maniera esatta in meccanica quantistica. Ciò è legato alle difficoltà matemtiche insite nella teoria dei quanti. Inoltre i problemi risolti, pur essendo in alcuni casi delle ottime approssimazioni, sono spesso delle astrazioni delle situazioni reali. Si pensi ad esempio al caso di una particella quantistica di un problema unidimensionale. Questi sistemi sono talmente astratti da violare un principio fondamentale, il principio di indetermi- nazione. Infatti le componenti dell’impulso e della posizione perpendicolari al moto sono nulle e quindi sono note con certezza ad ogni istante di tempo. Per poter ottenere una descrizione dei modelli che tendono alla realtà è necessario ricorrere alle tecniche di approssimazione. In questa tesi sono stati considerati i fenomeni che coinvolgono una interazione variabile nel tempo. In particolare nella prima parte è stata sviluppata la teoria delle rappresentazioni della meccanica quantistica necessaria per la definizione della serie di Dyson. Questa serie oper- atoriale dovrebbe convergere (il problema della convergenza non è banale) verso l’operatore di evoluzione temporale, grazie al quale è possibile conoscere come un sistema evolve nel tempo. Quindi riuscire a determinare la serie di Dyson fino ad un certo ordine costituisce una soluzione approssimata del problema in esame. Supponiamo che sia possibile scomporre l’hamiltoniana di un sistema fisico nella somma di due termini del tipo: H = H0 + V (t), dove V (t) è una piccola perturbazione dipendente dal tempo di un problema risolubile esattamente caratterizzato dall’hamiltoniana H0 . In tal caso sono applicabili i metodi della teoria perturbativa dipendente dal tempo. Sono stati considerati due casi limite, ovvero il caso in cui lo spettro dell’hamiltoniana imperturbata sia discreto e non degenere ed il caso in cui lo spettro sia continuo. La soluzione al primo ordine del caso discreto è stata applicata per poter formu- lare il principio di indeterminazione energia-tempo e per determinare le regole di selezione in approssimazione di dipolo elettrico. Il secondo caso è servito per spiegare il decadimento beta, rimanendo nel campo della teoria quantistica classica (per una trattazione profonda del problema sarebbe necessaria la teoria dei campi).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi ha lo scopo di fornire una panoramica generale sulle curve ellittiche e il loro utilizzo nella crittografia moderna. L'ultima parte è invece focalizzata a descrivere uno specifico sistema per lo scambio sicuro di messaggi: la crittografia basata sull'identità. Quest'ultima utilizza uno strumento molto interessante, il pairing di Weil, che sarà introdotto nel contesto della teoria dei divisori di funzioni razionali sulle curve ellittiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La firma digitale è uno degli sviluppi più importanti della crittografia a chiave pubblica, che permette di implementarne le funzionalità di sicurezza. La crittografia a chiave pubblica, introdotta nel 1976 da Diffie ed Hellman, è stata l'unica grande rivoluzione nella storia della crittografia. Si distacca in modo radicale da ciò che l'ha preceduta, sia perché i suoi algoritmi si basano su funzioni matematiche e non su operazioni di sostituzione e permutazione, ma sopratutto perché è asimmetrica: prevede l'uso di due chiavi distinte (mentre nelle crittografia simmetrica si usa una sola chiave condivisa tra le parti). In particolare, le funzioni matematiche su cui si basa tale crittografia sono funzioni ben note nella Teoria dei Numeri: ad esempio fattorizzazione, calcolo del logaritmo discreto. La loro importanza deriva dal fatto che si ritiene che siano 'computazionalmente intrattabili' da calcolare. Dei vari schemi per la firma digitale basati sulla crittografia a chiave pubblica, si è scelto di studiare quello proposto dal NIST (National Institute of Standard and Technology): il Digital Signature Standard (DSS), spesso indicato come DSA (Digital Signature Algorithm) dal nome dell'algoritmo che utilizza. Il presente lavoro è strutturato in tre capitoli. Nel Capitolo 1 viene introdotto il concetto di logaritmo discreto (centrale nell'algoritmo DSA) e vengono mostrati alcuni algoritmi per calcolarlo. Nel Capitolo 2, dopo una panoramica sulla crittografia a chiave pubblica, si dà una definizione di firma digitale e delle sue caratteristiche. Chiude il capitolo una spiegazione di un importante strumento utilizzato negli algoritmi di firma digitale: le funzioni hash. Nel Capitolo 3, infine, si analizza nel dettaglio il DSA nelle tre fasi che lo costituiscono (inizializzazione, generazione, verifica), mostrando come il suo funzionamento e la sua sicurezza derivino dai concetti precedentemente illustrati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è analizzare il teorema del punto fisso di Brouwer, e lo faremo da più punti di vista, generalizzandolo e dando una piccola illustrazione di una sua possibile applicazione nella teoria dei giochi. Il teorema del punto fisso è uno dei teoremi prìncipi della topologia algebrica. Nella versione classica esso afferma che qualsiasi funzione continua che porta la palla unitaria di \R^{n} in se stessa possiede un punto fisso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La struttura di gruppo è una delle strutture algebriche più semplici e importanti della matematica. Un gruppo si può descrivere in vari modi: uno dei più interessanti è la presentazione per generatori e relazioni. Sostanzialmente presentare un gruppo per generatori e relazioni significa dire quali specifiche ”regole di calcolo” e semplificazione valgono nel gruppo in considerazione oltre a quelle che derivano dagli assiomi di gruppo. Questo porta in particolare alla definizione di gruppo libero. Un gruppo libero non ha regole di calcolo oltre quelle derivanti dagli assiomi di gruppo. Ogni gruppo è un quoziente di un gruppo libero su un appropriato insieme di generatori per un sottogruppo normale, generato dalle relazioni. In questa tesi si ricordano le definizioni più importanti ed elementari della teoria dei gruppi e si passa in seguito a discutere il gruppo libero e le presentazioni di gruppi con generatori e relazioni, dando alcuni esempi. La tesi si conclude illustrando l’algoritmo di Coxeter e Todd, per enumerare le classi laterali di un sottogruppo quando si ha un gruppo presentato per generatori e relazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’imaging ad ultrasuoni è una tecnica di indagine utilizzata comunemente per molte applicazioni diagnostiche e terapeutiche. La tecnica ha numerosi vantaggi: non è invasiva, fornisce immagini in tempo reale e l’equipaggiamento necessario è facilmente trasportabile. Le immagini ottenute con questa tecnica hanno tuttavia basso rapporto segnale rumore a causa del basso contrasto e del rumore caratteristico delle immagini ad ultrasuoni, detto speckle noise. Una corretta segmentazione delle strutture anatomiche nelle immagini ad ultrasuoni è di fondamentale importanza in molte applicazioni mediche . Nella pratica clinica l’identificazione delle strutture anatomiche è in molti casi ancora ottenuta tramite tracciamento manuale dei contorni. Questo processo richiede molto tempo e produce risultati scarsamente riproducibili e legati all’esperienza del clinico che effettua l’operazione. In ambito cardiaco l’indagine ecocardiografica è alla base dello studio della morfologia e della funzione del miocardio. I sistemi ecocardiografici in grado di acquisire in tempo reale un dato volumetrico, da pochi anni disponibili per le applicazioni cliniche, hanno dimostrato la loro superiorità rispetto all’ecocardiografia bidimensionale e vengono considerati dalla comunità medica e scientifica, la tecnica di acquisizione che nel futuro prossimo sostituirà la risonanza magnetica cardiaca. Al fine di sfruttare appieno l’informazione volumetrica contenuta in questi dati, negli ultimi anni sono stati sviluppati numerosi metodi di segmentazione automatici o semiautomatici tesi alla valutazione della volumetria del ventricolo sinistro. La presente tesi descrive il progetto, lo sviluppo e la validazione di un metodo di segmentazione ventricolare quasi automatico 3D, ottenuto integrando la teoria dei modelli level-set e la teoria del segnale monogenico. Questo approccio permette di superare i limiti dovuti alla scarsa qualità delle immagini grazie alla sostituzione dell’informazione di intensità con l’informazione di fase, che contiene tutta l’informazione strutturale del segnale.