964 resultados para parchi divertimento teoria dei grafi analisi combinatoria
Resumo:
Il lavoro è una riflessione sugli sviluppi della nozione di definizione nel recente dibattito sull'analiticità. La rinascita di questa discussione, dopo le critiche di Quine e un conseguente primo abbandono della concezione convenzionalista carnapiana ha come conseguenza una nuova concezione epistemica dell'analiticità. Nella maggior parte dei casi le nuove teorie epistemiche, tra le quali quelle di Bob Hale e Crispin Wright (Implicit Definition and the A priori, 2001) e Paul Boghossian (Analyticity, 1997; Epistemic analyticity, a defence, 2002, Blind reasoning, 2003, Is Meaning Normative ?, 2005) presentano il comune carattere di intendere la conoscenza a priori nella forma di una definizione implicita (Paul Horwich, Stipulation, Meaning, and Apriority, 2001). Ma una seconda linea di obiezioni facenti capo dapprima a Horwich, e in seguito agli stessi Hale e Wright, mettono in evidenza rispettivamente due difficoltà per la definizione corrispondenti alle questioni dell'arroganza epistemica e dell'accettazione (o della stipulazione) di una definizione implicita. Da questo presupposto nascono diversi tentativi di risposta. Da un lato, una concezione della definizione, nella teoria di Hale e Wright, secondo la quale essa appare come un principio di astrazione, dall'altro una nozione della definizione come definizione implicita, che si richiama alla concezione di P. Boghossian. In quest'ultima, la definizione implicita è data nella forma di un condizionale linguistico (EA, 2002; BR, 2003), ottenuto mediante una fattorizzazione della teoria costruita sul modello carnapiano per i termini teorici delle teorie empiriche. Un'analisi attenta del lavoro di Rudolf Carnap (Philosophical foundations of Physics, 1966), mostra che la strategia di scomposizione rappresenta una strada possibile per una nozione di analiticità adeguata ai termini teorici. La strategia carnapiana si colloca, infatti, nell'ambito di un tentativo di elaborazione di una nozione di analiticità che tiene conto degli aspetti induttivi delle teorie empiriche
Resumo:
Questa tesi si occupa dello studio delle sorgenti radio extragalattiche. Il presente lavoro è divisibile in due parti distinte. La prima parte descrive la morfologia e la struttura delle varie tipologie degli oggetti AGN, i fenomeni relativistici riguardo al moto delle radiosorgenti, il modello unificato, che consiste nel descrivere tutti i tipi di radiosorgenti presentati come la stessa tipologia di oggetto. La seconda parte vede l'analisi di due campioni: uno di radiogalassie, l'altro di BL Lacs. L'obiettivo consiste nel confrontare i valori di core dominance(rapporto tra potenza osservata e attesa) dei due campioni e dimostrare come la core domincance degli oggetti BL Lacertae sia maggiore di quella delle radiogalassie, al fine di mettere in evidenza un fattore a sostegno della teoria dei modelli unificati. Infine sono state inserite due appendici:l'una descrive un importante meccanismo di emissione come la radiazione di sincrotrone, l'altra presenta la tecnica di interferometria VLBI.
Resumo:
La tesi approfondisce alcuni argomenti di teoria dei gruppi e fornisce alcuni esempi nella classificazione dei gruppi finiti di ordine dato.
Resumo:
In questa tesi si vede una dimostrazione elementare del teorema dei numeri primi. Dopo aver definito le funzioni aritmetiche di Tchebychev theta e psi, si utilizzano le loro proprietà per studiare il comportamento asintotico della funzione di Mertens e infine di pi(x). Inoltre si mostrano alcuni legami tra la zeta di Riemann e la teoria dei numeri e cenni ad altre dimostrazioni del teorema dei numeri primi.
Resumo:
In questa tesi sono state applicate le tecniche del gruppo di rinormalizzazione funzionale allo studio della teoria quantistica di campo scalare con simmetria O(N) sia in uno spaziotempo piatto (Euclideo) che nel caso di accoppiamento ad un campo gravitazionale nel paradigma dell'asymptotic safety. Nel primo capitolo vengono esposti in breve alcuni concetti basilari della teoria dei campi in uno spazio euclideo a dimensione arbitraria. Nel secondo capitolo si discute estensivamente il metodo di rinormalizzazione funzionale ideato da Wetterich e si fornisce un primo semplice esempio di applicazione, il modello scalare. Nel terzo capitolo è stato studiato in dettaglio il modello O(N) in uno spaziotempo piatto, ricavando analiticamente le equazioni di evoluzione delle quantità rilevanti del modello. Quindi ci si è specializzati sul caso N infinito. Nel quarto capitolo viene iniziata l'analisi delle equazioni di punto fisso nel limite N infinito, a partire dal caso di dimensione anomala nulla e rinormalizzazione della funzione d'onda costante (approssimazione LPA), già studiato in letteratura. Viene poi considerato il caso NLO nella derivative expansion. Nel quinto capitolo si è introdotto l'accoppiamento non minimale con un campo gravitazionale, la cui natura quantistica è considerata a livello di QFT secondo il paradigma di rinormalizzabilità dell'asymptotic safety. Per questo modello si sono ricavate le equazioni di punto fisso per le principali osservabili e se ne è studiato il comportamento per diversi valori di N.
Resumo:
Questa ricerca affronta in maniera interdisciplinare il tema delle funzioni polinomiali definite sugli anelli degli interi modulo la potenza di un numero primo. In primo luogo è stato esaminato il caso particolare del campo Zp, dimostrando che in esso tutte le funzioni sono polinomiali. In seguito è stato calcolato il numero delle funzioni polinomiali negli interi modulo 9 e modulo 25, mostrando un procedimento che può essere esteso a qualsiasi potenza di un numero primo. Esso fa uso di alcuni risultati di teoria dei numeri e di aritmetica e affronta il tema da un punto di vista prettamente algebrico. A queste dimostrazioni è stato affiancato un esperimento di tipo statistico, il cui obiettivo è cercare una regolarità che permetta, dati il numero primo p e il suo esponente n, di calcolare immediatamente il numero delle funzioni polinomiali nell'anello degli interi modulo p^n. Sono state presentate due congetture, ottenute utilizzando strumenti di tipo informatico: un software di calcolo e un linguaggio di programmazione ad alto livello. Gli strumenti della statistica descrittiva, in particolare il test di Pearson, si sono rivelati essenziali per verificare l'adeguatezza delle supposizioni. Questa ricerca può essere considerata il punto di partenza per dimostrare (o confutare) quello che è stato ipotizzato attraverso un'analisi di tipo sperimentale.
Resumo:
Scopo della tesi è la trattazione dei logaritmi a partire dalla storia di quest'ultimi, al loro sviluppo, fino ad arrivare alle diverse applicazioni dei logaritmi in svariate discipline. La tesi è strutturata in quattro capitoli, nel primo dei quali si parte analizzando quali istanze teoriche e necessità pratiche abbiano preparato la strada all'introduzione dei logaritmi. Vengono riportati alcuni passi del testo più importante dedicato da Nepero ai logaritmi, Mirifici Logarithmorum Canonis Constructio, la modifica ad opera di Henry Briggs e la diffusione dei logaritmi in gran parte dell' Europa. Nel secondo capitolo viene evidenziato il legame tra i logaritmi e la geometria dell'iperbole per poi passare alla trattazione dei primi studi sulla curva logaritmica. Nel terzo capitolo viene esaminata la controversia tra Leibniz e Bernoulli sul significato da attribuire ai logaritmi dei numeri negativi soffermandosi su come Eulero uscì da una situazione di stallo proponendo una teoria dei logaritmi dei numeri complessi. Nel quarto ed ultimo capitolo vengono analizzati i diversi utilizzi della scala logaritmica ponendo soprattutto l'attenzione sul regolo calcolatore, arrivando infine a mostrare le applicazioni dei logaritmi in altre discipline.
Resumo:
Scopo della tesi è illustrare l'origine della nozione di logaritmo nei suoi primi decenni dalla nascita, partendo dalle opere di J. Napier (Nepero, 1550-1617) fino a B. Cavalieri (1598-1647), che insieme a J. Keplero (1571-1630) concludono la cosiddetta età pioneristica. Nel primo capitolo sono esposti alcuni mezzi di calcolo usati nel XVI secolo, come i "bastoncini di Nepero"; e il confronto della progressione geometrica con quella aritmetica, che con la conoscenza delle leggi esponenziali, porterà all'invenzione dei logaritmi. Il secondo capitolo è dedicato interamente a Napier (fatto salvo un cenno all'opera di Burgi), con lo scopo di illustrare i suoi due maggiori trattati sui logaritmi: il primo fu sostanzialmente una tavola di numeri da lui inizialmente chiamati "numeri artificiali" e successivamente definiti "logaritmi"; il secondo, curato e pubblicato dal figlio, è un trattato nel quale giustifica il nuovo concetto da lui ottenuto ed i metodi usati per il calcolo delle tavole. Con Henry Briggs (capitolo III) la teoria del logaritmo giunge a maturazione. Egli stesso definì una propria funzione logaritmica Bl_1 che, in seguito, mutò dopo un paio di incontri con Napier. Nelle tavole di Briggs il logaritmo da lui introdotto avrà base 10 e il logaritmo di 1 sarà nullo, definendo così il nostro usuale logaritmo decimale. Nel quarto capitolo mi occupo della diffusione in Italia e in Germania delle nozioni di logaritmo, da parte, rispettivamente di B. Cavalieri e J. Keplero. Cavalieri scrisse parecchio sui logaritmi, pubblicando anche proprie tavole, ma non sembra che abbia raggiunto risultati di grande rilevanza nel campo, tuttavia seppe usare la teoria dei logaritmi in campo geometrico giungendo a formule interessanti. La parte storica della tesi si conclude con alcune notizie sul contributo di Keplero e la diffusione della nozione dei logaritmi neperiani in Germania. La mia esposizione si conclude con qualche notizia sull'uso dei logaritmi e sul regolo calcolatore dalla fine del XIX secolo fin verso gli anni ’70 del secolo scorso.
Resumo:
Questo elaborato finale analizza la mia proposta di traduzione di parte del sito internet www.turismo.ra.it. Ho intrapreso la traduzione delle pagine di questo sito nel quadro di una collaborazione volontaria con il Comune di Ravenna; anche il mio tirocinio curricolare si è concentrato sulla traduzione del sito. Ho deciso dunque di articolare la tesi come segue: il primo capitolo, si concentra sulla teoria dei siti internet e sulla loro organizzazione, focalizzando l’interesse sulle modalità di scrittura sul web, mentre il secondo capitolo tratta l’analisi del sito, ponendo particolare attenzione alla sua struttura. La mia proposta di traduzione segue poi nel terzo capitolo, mentre nel quarto offro una possibile analisi dei testi tradotti, con commenti relativi agli aspetti linguistici e alle difficoltà riscontrate, e analizzando la memoria di traduzione da me creata nel corso della mia attività. L’elaborato si conclude con alcune mie considerazioni finali circa l’attività svolta, e la bibliografia, con annessa sitografia, da me consultate per lo svolgimento del mio lavoro di ricerca.
Resumo:
Questo elaborato presenta i principali contenuti della fluidodinamica. Data la vastità dell'argomento, verranno mostrati i tratti essenziali, senza addentrarsi nei dettagli. Il capitolo iniziale introduce il concetto di fluido e i principali metodi di studio. Segue il corpo centrale dell'elaborato, in cui vengono presentate le equazioni fondamentali della dinamica dei fluidi. Successivamente due brevi capitoli si concentrano su una particolare forma dell'equazione del moto e sul tema della vorticità. L'ultimo capitolo tratta brevemente del collasso gravitazionale, una fra le innumerevoli applicazioni della teoria dei fluidi al campo dell'astrofisica. Vettori e tensori verranno rappresentati in coordinate cartesiane e, dove necessario, saranno richiamate in nota le identità utilizzate nei calcoli.
Resumo:
Il presente lavoro di tesi si pone nell'ambito dell'analisi dati attraverso un metodo (QDanet_PRO), elaborato dal Prof. Remondini in collaborazine coi Dott. Levi e Malagoli, basato sull'analisi discriminate a coppie e sulla Teoria dei Network, che ha come obiettivo la classificazione di dati contenuti in dataset dove il numero di campioni è molto ridotto rispetto al numero di variabili. Attraverso questo studio si vogliono identificare delle signature, ovvero un'insieme ridotto di variabili che siano in grado di classificare correttamente i campioni in base al comportamento delle variabili stesse. L'elaborazione dei diversi dataset avviene attraverso diverse fasi; si comincia con una un'analisi discriminante a coppie per identificare le performance di ogni coppia di variabili per poi passare alla ricerca delle coppie più performanti attraverso un processo che combina la Teoria dei Network con la Cross Validation. Una volta ottenuta la signature si conclude l'elaborazione con una validazione per avere un'analisi quantitativa del successo o meno del metodo.
Resumo:
Questo elaborato finale intende presentare una proposta di traduzione di una parte del sito internet del celebre Museo ebraico di Berlino progettato da Daniel Libeskind, architetto statunitense di origine polacca. Il presente elaborato si articola nelle seguenti sezioni: il primo capitolo si concentrerà sulla teoria dei siti internet e sulla loro organizzazione, focalizzando l’interesse sulle modalità di scrittura dei siti web, nel secondo capitolo, verranno presentate la vita e le opere di Daniel Libeskind con una breve introduzione al Museo Ebraico. Seguirà poi un'analisi testuale e nel quarto capitolo la proposta di traduzione. Nel quinto capitolo verranno analizzate le strategie adottate nella traduzione. L’elaborato si concluderà con alcune considerazioni finali, e con indicazioni sulla bibliografia e sitografia.
Resumo:
In questa tesi si presenta il concetto di politopo convesso e se ne forniscono alcuni esempi, poi si introducono alcuni metodi di base e risultati significativi della teoria dei politopi. In particolare si dimostra l'equivalenza tra le due definizioni di H-politopo e di V-politopo, sfruttando il metodo di eliminazione di Fourier-Motzkin per coni. Tutto ciò ha permesso di descrivere, grazie al lemma di Farkas, alcune importanti costruzioni come il cono di recessione e l'omogeneizzazione di un insieme convesso.
Resumo:
Il presente lavoro di tesi si propone di analizzare l’influenza dei parametri caratteristici di una macchina laser temprante. Il materiale su cui sono state effettuate le prove è un acciaio C48 . Il lavoro è suddiviso nelle seguenti fasi : Studio delle sorgenti laser Prove in laboratorio Preparazione e studio metallografico dei campioni Analisi dei risultati Nei primi tre capitoli verranno esposte, in maniera più o meno dettagliata, le nozioni teoriche riguardanti le sorgenti laser, sul quale verte il lavoro di tesi. Nel dettaglio verranno descritte: la natura fisica delle sorgenti laser, ossia delle onde elettromagnetiche, le loro proprietà, la sorgente più comune dal punto di vista industriale, i sistemi di trasporto e di focalizzazione del fascio in fibra ottica e l’interazione laser-materia, che rappresenta il punto di partenza delle lavorazioni mediante laser. Successivamente, nel capitolo 4, l’esposizione verterà sul particolare impiego del laser nelle operazioni di tempra. nel capitolo 5, verrà descritta l’attività svolta: le specifiche della macchina, i parametri dell’impulso utilizzati, i risultati numerici delle misurazioni e le foto delle zone temprate. Per rendere più chiaro il seguito, passerò ad una piccola parte introduttiva, che verrà poi approfondita nel dettaglio successivamente, sui principali campi d’impiego della tecnologia laser, le applicazioni industriali ed i componenti di una generica stazione di lavorazione mediante laser.
Resumo:
Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.