999 resultados para sistemi di numerazione storia della matematica matematica ricreativa, frattali
Resumo:
La tesi dottorale in oggetto prende spunto da alcune considerazioni di base relative alla salute di una comunità. Infatti quest’ultima si fonda sulla sicurezza dell’ambiente in cui vive e sulla qualità delle relazioni tra i suoi componenti. In questo ambito la mobilità rappresenta uno degli elementi di maggior criticità, sia per la sicurezza delle persone, che per la salute pubblica, che per le conseguenze sull’ambiente che ne derivano. Negli ultimi anni la circolazione stradale è notevolmente aumentata è questo ha portato a notevoli aspetti negativi, uno dei quali è connesso agli incidenti stradali. In tale ambito viene ricordato che l’Unione Europea ha da tempo indicato come obiettivo prioritario il miglioramento della sicurezza stradale e nel 2001 ha fissato il traguardo di dimezzare entro il 2010 il numero delle vittime degli incidenti stradali. Non ultima, l’approvazione da parte del Parlamento europeo e del Consiglio di un atto legislativo (d’imminente pubblicazione sulla GU Europea) relativo alla gestione della sicurezza in tutte le fasi della pianificazione, della progettazione e del funzionamento delle infrastrutture stradali, in cui si evidenzia l’esigenza di una quantificazione della sicurezza stradale. In tale contesto viene sottolineato come uno dei maggiori problemi nella gestione della sicurezza stradale sia la mancanza di un metodo affidabile per stimare e quantificare il livello di sicurezza di una strada esistente o in progetto. Partendo da questa considerazione la tesi si sviluppa mettendo in evidenza le grandezza fondamentali nel problema della sicurezza stradale, (grado di esposizione, rischio d’incidente e le possibili conseguenze sui passeggeri) e analizzando i sistemi adottati tradizionalmente per effettuare analisi di sicurezza: • Statistiche dei dati storici d’incidente; • Previsione da modelli basati su analisi di regressione dei dati incidentali; • Studi Before-After; • Valutazione da giudizi di esperti. Dopo aver analizzato gli aspetti positivi e negativi delle alternative in parola, viene proposto un nuovo approccio, che combina gli elementi di ognuno dei metodi sopra citati in un algoritmo di previsione incidentale. Tale nuovo algoritmo, denominato Interactive Highway Safety Design Model (IHSDM) è stato sviluppato dalla Federal Highway Administration in collaborazione con la Turner Fairbank Higway Research Center ed è specifico per le strade extraurbane a due corsie. Il passo successivo nello sviluppo della tesi è quello di un’analisi dettagliata del modello IHSDM che fornisce il numero totale di incidenti previsti in un certo intervallo temporale. Viene analizzata la struttura del modello, i limiti d’applicabilità, le equazioni che ne sono alla base e i coefficienti moltiplicativi relativi ad ogni caratteristica geometrica e funzionale. Inoltre viene presentata un’ampia analisi di sensibilità che permette di definire quale sia l’influenza d’ogni singolo Fattore di Previsione incidentale (Accident Predication Factor) sul risultato finale. Dai temi trattati, emerge chiaramente come la sicurezza è legata a più sistemi tra loro interconnessi e che per utilizzare e migliorare i modelli previsionali è necessario avere a disposizione dati completi, congruenti, aggiornati e facilmente consultabili. Infatti, anche quando sono disponibili elementi su tutti gli incidenti avvenuti, spesso mancano informazioni di dettaglio ma fondamentali, riguardanti la strada come ad esempio il grado di curvatura, la larghezza della carreggiata o l’aderenza della pavimentazione. In tale ottica, nella tesi viene presentato il Sistema Informativo Stradale (SIS) della Provincia di Bologna, concepito come strumento di gestione delle problematiche inerenti la viabilità e come strumento di supporto per la pianificazione degli interventi e la programmazione delle risorse da investire sulla rete. Viene illustrato come il sistema sia in grado di acquisire, elaborare ed associare dati georeferenziati relativi al territorio sia sotto forma di rappresentazioni grafiche, sia mediante informazioni descrittive di tipo anagrafico ed alfanumerico. Quindi viene descritto il rilievo ad alto rendimento, effettuato con l’ausilio di un laboratorio mobile multifunzionale (Mobile Mapping System), grazie al quale è stato possibile definire con precisione il grafo completo delle strade provinciali e il database contenente i dati relativi al patrimonio infrastrutturale. Tali dati, relativi alle caratteristiche plano-altimetriche dell’asse (rettifili, curve planimetriche, livellette, raccordi altimetrici, ecc...), alla sezione trasversale (numero e larghezza corsie, presenza di banchine, ecc..), all’ambiente circostante e alle strutture annesse vengono presentati in forma completa specificando per ognuno la variabilità specifica. Inoltre viene evidenziato come il database si completi con i dati d’incidentali georeferenziati sul grafo e compresivi di tutte le informazioni contenute nel modello ISTAT CTT/INC spiegandone le possibili conseguenze sul campo dell’analisi di sicurezza. La tesi si conclude con l’applicazione del modello IHSDM ad un caso reale, nello specifico la SP255 di S.Matteo Decima. Infatti tale infrastruttura sarà oggetto di un miglioramento strutturale, finanziato dalla Regione Emilia Romagna, che consistente nell’allargamento della sede stradale attraverso la realizzazione di una banchina pavimentata di 1.00m su entrambi i lati della strada dalla prog. km 19+000 al km 21+200. Attraverso l’utilizzo dell’algoritmo di previsione incidentale è stato possibile quantificare gli effetti di questo miglioramento sul livello di sicurezza dell’infrastruttura e verificare l’attendibilità del modello con e senza storia incidentale pregressa. Questa applicazione ad un caso reale mette in evidenza come le informazioni del SIS possano essere sfruttate a pieno per la realizzazione di un analisi di sicurezza attraverso l’algoritmo di previsione incidentale IHSDM sia nella fase di analisi di uno specifico tronco stradale che in quella fondamentale di calibrazione del modello ad una specifica rete stradale (quella della Provincia di Bologna). Inoltre viene sottolineato come la fruibilità e la completezza dei dati a disposizione, possano costituire la base per sviluppi di ricerca futuri, come ad esempio l’indagine sulle correlazioni esistenti tra le variabili indipendenti che agiscono sulla sicurezza stradale.
Resumo:
La tesi tratta dei gruppi semplici sporadici, in particolar modo dei gruppi di Mathieu. Sono state ripercorse tappe storiche fondamentali, a partire dalla semplicità del gruppo alterno An, n>4, nota a Galois, fino a giungere al teorema di classificazione dei gruppi semplici, di cui i gruppi sporadici rappresentano un caso particolare. Vengono poi proposte diverse costruzioni dei gruppi di Mathieu, passando dall'algebra alla geometria fino alla teoria dell'informazione. Quindi vengono discusse le proprietà principali dei gruppi di Mathieu, e infine si presentano congetture in cui i gruppi di Mathieu, o più in generale i gruppi sporadici, giocano un ruolo fondamentale, come ad esempio nella congettura "moonshine". Al termine della tesi vengono presentati i gruppi di Mathieu in ambiti diversi dal mondo matematico, dal gioco alla musica.
Resumo:
Il rapido progresso della tecnologia, lo sviluppo di prodotti altamente sofisticati, la forte competizione globale e l’aumento delle aspettative dei clienti hanno messo nuove pressioni sui produttori per garantire la commercializzazione di beni caratterizzati da una qualità sempre crescente. Sono gli stessi clienti che da anni si aspettano di trovare sul mercato prodotti contraddistinti da un livello estremo di affidabilità e sicurezza. Tutti siamo consapevoli della necessità per un prodotto di essere quanto più sicuro ed affidabile possibile; ma, nonostante siano passati oramai 30 anni di studi e ricerche, quando cerchiamo di quantificare ingegneristicamente queste caratteristiche riconducibili genericamente al termine qualità, oppure quando vogliamo provare a calcolare i benefici concreti che l’attenzione a questi fattori quali affidabilità e sicurezza producono su un business, allora le discordanze restano forti. E le discordanze restano evidenti anche quando si tratta di definire quali siano gli “strumenti più idonei” da utilizzare per migliorare l’affidabilità e la sicurezza di un prodotto o processo. Sebbene lo stato dell’arte internazionale proponga un numero significativo di metodologie per il miglioramento della qualità, tutte in continuo perfezionamento, tuttavia molti di questi strumenti della “Total Quality” non sono concretamente applicabili nella maggior parte delle realtà industriale da noi incontrate. La non applicabilità di queste tecniche non riguarda solo la dimensione più limitata delle aziende italiane rispetto a quelle americane e giapponesi dove sono nati e stati sviluppati questi strumenti, oppure alla poca possibilità di effettuare investimenti massicci in R&D, ma è collegata anche alla difficoltà che una azienda italiana avrebbe di sfruttare opportunamente i risultati sui propri territori e propri mercati. Questo lavoro si propone di sviluppare una metodologia semplice e organica per stimare i livelli di affidabilità e di sicurezza raggiunti dai sistemi produttivi e dai prodotti industriali. Si pone inoltre di andare al di là del semplice sviluppo di una metodologia teorica, per quanto rigorosa e completa, ma di applicare in forma integrata alcuni dei suoi strumenti a casi concreti di elevata valenza industriale. Questa metodologia come anche, più in generale, tutti gli strumenti di miglioramento di affidabilità qui presentati, interessano potenzialmente una vasta gamma di campi produttivi, ma si prestano con particolare efficacia in quei settori dove coesistono elevate produzioni e fortissime esigenze qualitative dei prodotti. Di conseguenza, per la validazione ed applicazione ci si è rivolti al settore dell’automotive, che da sempre risulta particolarmente sensibile ai problemi di miglioramento di affidabilità e sicurezza. Questa scelta ha portato a conclusioni la cui validità va al di là di valori puramente tecnici, per toccare aspetti non secondari di “spendibilità” sul mercato dei risultati ed ha investito aziende di primissimo piano sul panorama industriale italiano.
Resumo:
Questo lavoro trae spunto da un rinnovato interesse per l’«intuizione» e il «pensiero visivo» in matematica, e intende offrire un contributo alla discussione contemporanea su tali questioni attraverso lo studio del caso storico di Felix Klein. Dopo una breve ricognizione di alcuni dei saggi più significativi al riguardo, provenienti sia dalla filosofia della matematica, sia dalla pedagogia, dalle neuroscienze e dalle scienze cognitive, l’attenzione si concentra sulla concezione epistemologia di Klein, con particolare riferimento al suo uso del concetto di ‘intuizione’. Dai suoi lavori e dalla sua riflessione critica si ricavano non solo considerazioni illuminanti sulla fecondità di un approccio «visivo», ma argomenti convincenti a sostegno del ruolo cruciale dell’intuizione in matematica.
Resumo:
In questa tesi viene presentata una scelta dei passaggi fondamentali per arrivare alla dimostrazione della congettura della double bubble, dovuta ad Hutchings, Morgan, Ritoré e Ros. Questa dimostrazione assicura l'esistenza e l'unicità della superficie minima che permette di racchiudere due volumi nello spazio reale tridimensionale; si tratta quindi di un caso particolare del problema delle bolle di sapone, che ha richiesto la messa a punto di strumenti sofisticati di teoria geometrica della misura, calcolo delle variazioni ed equazioni differenziali non lineari.
Resumo:
La ricerca indaga tensioni e trasformazioni che investono le principali correnti di pensiero politico in Francia nei primi anni della monarchia di Luglio, e vi osserva l’emergere del concetto di classe. Assumendo la dimensione dell’avvenimento come punto di intersezione fra storia e teoria, l’elaborato si concentra sul periodo novembre 1831-giugno 1832 per analizzare il modo in cui, nell’ordine del discorso politico repubblicano, liberale e socialista, le vicende di questi mesi vengono interpretate cercando di dar nome alle figure sociali che esse fanno irrompere nel dibattito pubblico. Il titolo Fra il nome e la storia fa dunque riferimento allo sforzo di indagare il campo di tensione che si apre fra concreto divenire storico e grandi operazioni di nominazione che segnano l’affiorare di strutture concettuali della lunga durata. L’emergere della nozione di classe operaia e delle categorie che intorno a essa si organizzano viene interpretata come una «formazione discorsiva» che pone in questione significato e confini del politico. La frattura del 1848 è assunta come orizzonte e margine esterno della ricerca nella misura in cui si ipotizza che essa segni una prima affermazione del regime di verità di tale formazione discorsiva: lo statuto politico del lavoro. L’elaborato consta di quattro capitoli. I primi tre indagano la riflessione sul politico e la funzione che in essa svolge il concetto di classe a partire dall’interpretazione di alcuni avvenimenti del tornante 1831-32 proposta nel discorso repubblicano del quotidiano «Le National» e della Société des Amis du Peuple, in quello del liberalismo dottrinario di François Guizot e in quello socialista nascente, prima del movimento sansimoniano, e poi muovendo fino al 1848 francese con l’analisi propostane da Karl Marx. Il quarto capitolo indaga infine la dimensione del «sociale», la sua elaborazione e articolazione attraverso il lavoro di studio e oggettivazione delle figure del mondo del lavoro.
Resumo:
Il teorema della mappa di Riemann è un risultato fondamentale dell'analisi complessa che afferma l'esistenza di un biolomorfismo tra un qualsiasi dominio semplicemente connesso incluso strettamente nel piano ed il disco unità. Si tratta di un teorema di grande importanza e generalità, dato che non si fa alcuna ipotesi sul bordo del dominio considerato. Inoltre ha applicazioni in diverse aree della matematica, ad esempio nella topologia: può infatti essere usato per dimostrare che due domini semplicemente connessi del piano sono tra loro omeomorfi. Presentiamo in questa tesi due diverse dimostrazioni del teorema.
Resumo:
L’oggetto dell'elaborato riguarda l’insegnamento attuale dell’analisi matematica nella scuola secondaria superiore. Si sono esaminate le difficoltà incontrate dagli studenti ed elaborate riflessioni di carattere didattico per operare un insegnamento efficace. Nel primo capitolo sono state messe a punto alcune riflessioni sui fini dell’educazione. Il secondo capitolo si è concentrato sulle difficoltà legate all'insegnamento dell’analisi matematica, esaminando diverse situazioni didattiche verificatesi nel corso del tirocinio svolto nei mesi di Ottobre e Novembre 2013 presso l'Istituto Tecnico Tecnologico di Cesena. Il terzo capitolo opera un confronto fra i diversi approcci all'insegnamento della matematica in generale e dell'analisi in particolare che si presentano nelle diverse scuole secondarie, in particolare nei Licei e negli Istituti Tecnici. Nel quarto capitolo ci si è occupati del livello scolastico successivo, analizzando le differenze che intercorrono tra la scuola secondaria superiore e l’università per quanto riguarda gli stadi dello sviluppo mentale degli studenti, le materie, i metodi di studio e gli obiettivi di apprendimento.
Resumo:
Lo scopo di questa tesi è quello di presentare alcuni degli algoritmi di ricostruzione utilizzati nei sistemi a microonde per l'imaging della mammella. Sebbene, la mammografia a raggi X sia la tecnica che a oggi presenta le migliori caratteristiche per la rilevazione di lesioni tumorali ai tessuti del seno, la compressione necessaria nel processo di imaging e la probabilità non trascurabile di falsi negativi hanno portato alla ricerca e allo sviluppo di metodi alternativi di imaging alla mammella. Tra questi, l'imaging attraverso microonde sfrutta la differenza delle proprietà dielettriche tra tessuto sano e tumorale. Nel seguente elaborato verrà descritto come è ottenuta l'immagine dell'interno della mammella attraverso gli algoritmi di ricostruzione utilizzati da vari prototipi di sistemi di imaging. Successivamente verranno riportati degli esempi che mostrano i risultati ottenuti attraverso simulazioni o, quando possibile, in ambiente clinico.
Resumo:
In questa tesi vengono studiati gli effetti della non-normalità di un operatore all'interno di sistemi dinamici regolati da sistemi di equazioni differenziali ordinarie. Viene studiata la stabilità delle soluzioni, in particolare si approfondiscono fenomeni quali le crescite transitorie. In seguito vengono forniti strumenti grafici come gli Pseudospettri capaci di scoprire e quantificare tali "anomalie". I concetti studiati vengono poi applicati alla teoria dell'ecologia delle popolazioni utilizzando una generalizzazione delle equazioni di Lotka-Volterra. Modelli e matrici vengono implementate in Matlab mentre i risultati grafici sono ottenuti con il Toolbox Eigtool.
Resumo:
Lo studio di tesi che segue analizza un problema di controllo ottimo che ho sviluppato con la collaborazione dell'Ing. Stefano Varisco e della Dott.ssa Francesca Mincigrucci, presso la Ferrari Spa di Maranello. Si è trattato quindi di analizzare i dati di un controllo H-infinito; per eseguire ciò ho utilizzato i programmi di simulazione numerica Matlab e Simulink. Nel primo capitolo è presente la teoria dei sistemi di equazioni differenziali in forma di stato e ho analizzato le loro proprietà. Nel secondo capitolo, invece, ho introdotto la teoria del controllo automatico e in particolare il controllo ottimo. Nel terzo capitolo ho analizzato nello specifico il controllo che ho utilizzato per affrontare il problema richiesto che è il controllo H-infinito. Infine, nel quarto e ultimo capitolo ho specificato il modello che ho utilizzato e ho riportato l'implementazione numerica dell'algoritmo di controllo, e l'analisi dei dati di tale controllo.
Resumo:
Nella tesi si illustra il passaggio dagli spazi polinomiali agli spazi polinomiali generalizzati, gli spazi di Chebyshev estesi (spazi EC), e viene dato un metodo per costruirli a partire da opportuni sistemi di funzioni dette funzioni peso. Successivamente si tratta il problema dell'esistenza di un analogo della base di Bernstein negli spazi EC: si presenta, in analogia ad una particolare costruzione nel caso polinomiale, una dimostrazione costruttiva dell'esistenza di tale base. Infine viene studiato il problema delle lunghezze critiche di uno spazio EC: si tratta di determinare l'ampiezza dell'intervallo oltre la quale lo spazio considerato perde le proprietà di uno spazio EC, o non possiede più una base di Bernstein generalizzata; l'approccio adottato è di tipo sperimentale: nella tesi sono presentati i risultati ottenuti attraverso algoritmi di ricerca che analizzano le proprietà delle funzioni di transizione e ne traggono informazioni sullo spazio di studio.
Resumo:
Lo scopo di questa tesi è quello di presentare l'applicazione di tecniche legate alla Teoria di Taglia a un problema di analisi di immagini biomediche. Il lavoro nasce dalla collaborazione del gruppo di Matematica della Visione dell'Università di Bologna, con il progetto PERFECT del Centro di Ricerca ARCES. La tesi si pone quindi come analisi preliminare di approccio alternativo ai metodi preesistenti. I metodi sono principalmente di Topologia Algebrica Applicata, ambito emergente e rilevante nel mondo della Matematica Computazionale. Il nucleo dell'elaborazione è costituito dall'analisi di forma dei dati per mezzo di Funzioni di Taglia. Questa nozione è stata introdotta nel 1999 da Patrizio Frosini e in seguito sviluppata principalmente dallo stesso, Massimo Ferri, Claudia Landi e altri collaboratori appartenuti al Gruppo di Ricerca di Matematica della Visione dell'Università di Bologna.
Resumo:
Nel mio lavoro ho deciso di dedicare il primo capitolo all'evoluzione della prova ontologica nella storia della filosofia e della logica e all'analisi, da un punto di vista logico, della prova di Gödel. Nella prima sezione, quindi, ho riportato l'argomentazione di Anselmo d'Aosta, il primo a proporre una prova ontologica, e a seguire quelle di Scoto, Spinoza, Leibniz e Russell, evidenziando dove opportuno le critiche ad esse apportate. Nella seconda sezione ho ripercorso le tappe della prova ontologica di Gödel e ho riportato e analizzato alcuni dei passaggi logici tratti da uno dei suoi taccuini. Nel secondo capitolo ne ho analizzato in particolare la logica del secondo ordine. Inoltre ho dedicato la prima sezione a un breve richiamo di logica modale S5. Ho infine brevemente trattato un caso particolare della logica del secondo ordine, vale a dire la logica del secondo ordine debole.
Resumo:
Questa tesi si occupa della teoria spettrale di certi sistemi di equazioni ordinarie chiamati oscillatori non commutativi. Dopo avere introdotto i fondamenti necessari per la teoria vengono dimostrati alcuni teoremi qualitativi sullo spettro di tali sistemi.