334 resultados para equazione ipergeometrica equazione di Legendre funzioni speciali
Resumo:
Abstract|IT Nelle lauree triennali le pubblicazioni scientifiche non vengono studiate. Per quanto possa rivelarsi un piccolo intervento, lo scopo di questa tesi è invece quello di rendere più accessibili ai pochi interessati alcune vecchie e polverose pubblicazioni. Inoltre, la presente tesi non dovrebbe essere trattata come un lavoro a se stante, ma come il primo mattone di un progetto che comprende tutte le maggiori pubblicazioni della storia. How to get an equation named after you (Part I) in particolare discute la serie di pubblicazioni del 1926 di Schrödinger "Quantisierung als Eigenwertproblem" e l’articolo del 1928 di Dirac "The Quantum Theory of the Electron", ovvero quei lavori dove le equazioni di Schrödinger e Dirac vennero per prime derivate. La serie di articoli del 1926 sommano ad un totale di oltre 100 pagine. Inizialmente Schrödinger dimostra come ciò su cui è basata la sua teoria possa spiegare correttamente fenomeni conosciuti come l’atomo di idrogeno e l’effetto Stark, per poi derivare la famosa equazione d’onda complessa del secondo ordine. I procedimenti matematici, in questi articoli, sono complicati e molte delle dimostrazioni non vengono mostrate oppure risultano inutilmente lunghe. La pubblicazione di Dirac invece ha principalmente a che fare con la derivazione dell’equazione, la sua generalizzazione e l’invarianza relativistica. Dimostra inoltre che tale equazione è compatibile con passate teorie. La lettura di Dirac è molto più sistematica, dato il largo utilizzo di dimostrazioni matematiche laddove Schrödinger avrebbe usato parole.
Resumo:
In questo elaborato si studiano i risultati di convergenza di due differenti metodi stocastici di discesa dei gradienti applicati a funzioni non convesse. Si confrontano le ipotesi che caratterizzano i due differenti metodi e si paragonano i risultati a cui ogni metodo giunge.
Resumo:
La città di Rimini negli anni della Ricostruzione, a causa delle ampie distruzioni e alla crescita del turismo, è stata sottoposta ad un processo di compromissione dell’identità storica e d’impoverimento del patrimonio architettonico esistente. La tesi verte nell’elaborazione di una proposta progettuale di conversione e rifunzionalizzazione del Mercato Coperto di Rimini, appartenente al centro storico della città, in cui diverse stratificazioni del palinsesto architettonico sono parzialmente sopravvissute all’opera di speculazione edilizia. Col fine di comprendere le diverse stratificazioni presenti all’interno dell’area d’intervento, si è svolta un’analisi storica, individuando come la frammentazione dell’attuale contesto sia debitrice alla mancanza di un piano organico di ricostruzione. Indentificando l’edificio del Mercato Coperto come il fabbricato con le maggiori problematiche all’interno dell’area, si è quindi proceduto ad analizzare il tema architettonico del mercato coperto, approfondendo lo sviluppo dei diversi modelli storici ed analizzando come lo scenario attuale sia in parte debitore al processo di specializzazione che ha coinvolto questo tipo di spazi. La proposta progettuale verte sul superamento dell’attuale modello di riferimento adottato dal Mercato Coperto, che rifiuta il dialogo con il contesto circostante, acuendo le problematiche intrinseche di esso. Gli spazi interni sono stati convertiti grazie all’inserimento di nuovi volumi, capaci di ospitare un mercato coperto, una biblioteca e una piazza coperta, rielaborando in ottica moderna la coesistenza di funzioni sociali e commerciali tipiche dei modelli di riferimento più antichi. All’esterno l’edificio è stato dotato di spazi di mediazione con il contesto grazie alla trasformazione dell’involucro edilizio e all’inserimento velari mobili che definiscono una nuova piazza a disposizione della comunità e un nuovo ingresso, capace di risolvere la tensione con il patrimonio storico preesistente.
Resumo:
Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.
Resumo:
Questa tesi tratta di alcuni semplici modelli matematici, formulati in termini di equazioni differenziali ordinarie, riguardanti la crescita dei tumori e possibili trattamenti per contrastarla. Nel primo capitolo viene data un'introduzione sulla stabilità dei punti di equilibrio di sistemi di equazioni differenziali ordinarie, mentre nel secondo capitolo vengono affrontati e confrontati tre modelli ad una equazione: il modello esponenziale, il modello logistico e il modello di Gompertz. Si introducono poi due modelli a due equazioni differenziali: uno riguardante l'angiogenesi a due compartimenti e l'altro riguardante un modello lineare-quadratico applicato alla radiobiologia. Viene fatto poi un accenno ad un modello con equazioni alle derivate parziali. Infine, nell'ultimo capitolo, viene introdotto un modello a tre equazioni differenziali ordinarie a tre compartimenti in cui viene studiata l'interazione tra tre popolazioni di cellule: cellule immunitarie effettrici, cellule ospiti e cellule tumorali.
Resumo:
I gangli della base (BG) sono un gruppo di nuclei subcorticali che si trovano alla base del telencefalo e nella parte superiore del mesencefalo. La funzione dei BG è il controllo e la regolazione delle attività delle aree corticali motorie e premotorie in modo che i movimenti possano essere eseguiti fluidamente, ma sono coinvolti in numerosi altri processi motori e cognitivi. L’obiettivo che si pone questo lavoro di tesi è di simulare il comportamento dei BG attraverso un nuovo modello neurocomputazionale. È stato valutato il funzionamento del modello in varie condizioni, di base ed alterate, per illustrare casi standard (soggetti sani) e casi patologici (deplezione di dopamina nei pazienti Parkinson o ipermedicazione della dopamina tramite levodopa) durante un compito di probabilistic reversal learning (RL). Sono stati variati parametri di dopamina tonica e di rumore applicato ai soggetti e ai dati per simulare il modello durante il “one-choice task” presente in letteratura. I risultati raccolti indicano come il modello funzioni in maniera del tutto confrontabile con i risultati in letteratura, dimostrando la sua validità ed un utilizzo corretto dei parametri e della regola di apprendimento. Non è stato possibile dire altrettanto per seconda fase del RL, in cui la regola viene invertita: i soggetti non risultano apprendere in maniera coerente rispetto ai dati in letteratura, ma risultano restii all’individuazione del nuovo stimolo vincente. Tale risultato è da ricondursi probabilmente ad alcuni fattori: il numero di epoche utilizzate per il test sono esigue, lasciando ai soggetti poco tempo per apprendere la nuova regola; la regola di apprendimento usata nel reversal potrebbe non rappresentare la scelta migliore per rendere i soggetti più esplorativi nei confronti delle scelte proposte. Tali limiti sono spunti per futuri sviluppi del modello e del suo funzionamento, utilizzando regole di apprendimento diverse e più efficaci rispetto ai diversi contesti di azione.
Resumo:
In questa trattazione viene presentato lo studio di un modello a raggi che permette di simulare il comportamento macroscopico delle Superfici Intelligenti. L’ottimizzazione del canale radio, in particolare dell’ambiente di propagazione, si rivela fondamentale per la futura introduzione del 6G. Per la pianificazione della propagazione in ambienti ampi, risulta necessario implementare modelli di simulazione. I modelli a raggi possono essere integrati più facilmente all’interno di algoritmi per le previsioni di campo computazionalmente efficienti, come gli algoritmi di Ray Tracing. Nell’elaborato si è analizzato il comportamento del modello, con riferimento a tre funzioni tipiche realizzate da una Superficie Intelligente: il riflettore anomalo, la lente focalizzante e la lente defocalizzante. Attraverso una griglia di ricevitori è stato calcolato il campo dell’onda nelle varie configurazioni. Infine, si sono confrontati i risultati ottenuti con quelli del modello elettromagnetico.
Resumo:
In questa tesi si vuole trattare il concetto di dimensione a partire dalla teoria della misura e lo si vuole applicare per definire e studiare gli insiemi frattali, in particolare, autosimili. Nel primo capitolo si tratta la dimensione di Hausdorff a partire dalla teoria della misura di Hausdorff, di cui si osservano alcune delle proprietà grazie a cui la prima si può definire. Nel secondo capitolo si danno altre definizioni di dimensione, come ad esempio quella di auto-similarità e la box-counting, per mostrare che tale concetto non è univoco. Si analizzano quindi le principali differenze tra le diverse dimensioni citate e si forniscono esempi di insiemi per cui esse coincidono e altri, invece, per cui esse differiscono. Nel terzo capitolo si introduce poi il vero e proprio concetto di insieme frattale. In particolare, definendo i sistemi di funzioni iterate e studiandone le principali proprietà, si definisce una particolare classe di insiemi frattali detti autosimili. In questo capitolo sono enunciati e dimostrati teoremi fondamentali che legano gli attrattori di sistemi di funzioni iterate a insiemi frattali autosimili e forniscono, per alcuni specifici casi, una formula per calcolarne la dimensione di Hausdorff. Si danno, inoltre, esempi di calcolo di tale dimensione per alcuni insiemi frattali autosimili molto noti. Nel quarto capitolo si dà infine un esempio di funzione che abbia grafico frattale, la Funzione di Weierstrass, per mostrare un caso pratico in cui è utilizzata la teoria studiata nei capitoli precedenti.
Resumo:
Il matematico tedesco Oscar Perron, tra il 1910 e il 1914, introduce l'integrale che porterà il suo nome con lo scopo di risolvere una limitazione negli integrali di Riemann e di Lebesgue. Il primo a studiare questo integrale è Denjoy nel 1912 il cui integrale si dimostrerà essere equivalente a quello di Perron. Oggi è più utilizzato l'integrale di Henstock-Kurzweil, studiato negli anni '60, anch'esso equivalente ai due precedenti. L'integrale di Perron rende integrabili tutte le funzioni che sono la derivata di una qualche funzione e restituisce l'analogo del Teorema Fondamentale del Calcolo Integrale nella versione di Torricelli-Barrow. L'integrale di Perron estende e prolunga l'integrale di Lebesgue, infatti se una funzione è sommabile secondo Lebesgue è anche Perron-integrabile e i due integrali coincidono. Per le funzioni non negative vale anche il viceversa e i due integrali sono equivalenti, ma in generale non è così, esistono infatti funzioni Perron-integrabili ma non sommabili secondo Lebesgue. Una differenza tra questi due integrali è il fatto che quello di Perron non sia un integrale assolutamente convergente, ovvero, la Perron integrabilità di una funzione non implica l'integralità del suo valore assoluto; questa è anche in parte la ragione della poca diffusione di questo integrale. Chiudono la tesi alcuni esempi di funzioni di interesse per la formula di "Torricelli-Barrow" e anche un notevole teorema che non sempre si trova nei libri di testo: se una funzione è derivabile in ogni punto del dominio e la sua derivata prima è sommabile allora vale la formula di "Torricelli-Barrow".
Resumo:
Il tema centrale di questa Tesi è il cosiddetto "Teorema di Rappresentazione di Riesz" per i funzionali positivi su alcuni spazi di funzione continue. Questo Teorema, caposaldo dell'Analisi Funzionale, è inscindibilmente legato alla Teoria della Misura. Esso, infatti, stabilisce un'importante legame tra funzionali lineari positivi e misure positive di Radon. Dopo un'ampia disamina di questo Teorema, la Tesi si concentra su alcune delle sue Applicazioni in Analisi Reale e in Teoria del Potenziale. Nello specifico, viene provato un notevole risultato di Analisi Reale: la differenziabilità quasi dappertutto delle funzioni monotone su un intervallo reale. Nella dimostrazione di questo fatto, risulta cruciale anche un interessantissimo argomento di "continuità dalla positività", attraverso cui passiamo varie volte nella Tesi. Infatti, esso è determinante anche nelle Applicazioni in Teoria del Potenziale per la costruzione della misura armonica di un aperto regolare e della cosiddetta "misura di Riesz di una funzione subarmonica".
Resumo:
Questa tesi riguarda il Teorema di Morse-Sard nella sua versione generale. Tale teorema afferma che l'immagine dei punti critici di una funzione di classe C^k da un aperto di R^m a R^n è un insieme di misura di Lebesgue nulla se k >= m-n+1 (se m >= n) o se k >= 1 (se m
Resumo:
Le recenti restrizioni, che sono state imposte negli ultimi anni, in termini di emissioni hanno dato modo di portare innovazioni tecnologiche nel campo automotive. In particolare, è stata fatta molta strada nel campo dei sistemi di propulsione con lo scopo di ridurre gli inquinanti dovuti ai motori termici tramite l’utilizzo di veicoli ibridi ed elettrici. Oltre a questo, è cresciuta la ricerca anche per tematiche quali: nuove strategie di iniezione, nuovi tipi di combustibile e di motori e analisi più dettagliate dei processi di combustione. Queste innovazioni sono andate di pari passo con uno sviluppo tecnologico riguardante il controllo elettronico presente nel veicolo, il quale permette una maggiore precisione rispetto a quello meccanico. Al fine migliorare l’accuratezza del controllo elettronico è quindi fondamentale l’utilizzo dei segnali provenienti dai sensori, in modo tale da poter individuare e correggere eventuali problemi. Questo progetto ha infatti l’obiettivo di sviluppare strategie per l’analisi e il trattamento di una grande mole di dati, in modo tale da avere un controllo preciso ed automatizzato in modo tale da rendere la procedura meno soggetta ad errori e più veloce. Nello specifico il progetto di tesi è stato incentrato sull’implementazione di nuovi trigger, i quali hanno lo scopo di valutare i segnali in modo tale che non siano presenti problemi per la calibrazione del veicolo. In particolare, sono stati implementati trigger riguardanti il misfire e il controllo dei componenti di un veicolo ibrido, come per esempio il BSG e la batteria a 48V. Il tool fornisce quindi la possibilità di essere sempre aggiornato, ma anche di restituire risultati sempre più precisi potendo aumentare il numero delle funzioni e delle condizioni in essi presenti, con la possibilità, un giorno, di poter realizzare a bordo l’intero processo di calibrazione del motore.
Resumo:
Il Raytracing è una delle tecniche più utilizzate per generare immagini fotorealistiche. Introdotto nel mondo del rendering da più di 40 anni, col tempo si è evoluto, e ad oggi è considerato la tecnica standard in industrie come VFX e film d'animazione. Il problema del Raytracing risiede nel fatto che per essere applicato, bisogna effettuare dei test d'intersezione, raggio-primitiva, con tutti gli oggetti presenti nella scena da renderizzare. Sebbene queste operazioni siano tutto sommato semplici, tipicamente il numero degli oggetti su cui vanno effettuate è talmente elevato che l'applicazione di questa tecnica diventa impraticabile. Per questo si è pensato di raggruppare le primitive in speciali strutture dati chiamate Strutture di accelerazione spaziale. Esse hanno il compito di ridurre il numero di test da effettuare, abbassando il costo asintotico della ricerca da lineare a sub-lineare (o logaritmico) nel numero di primitive. Nel corso degli anni sono state introdotte diverse strutture di accelerazione spaziale per il Raytracing, ognuna con le sue peculiarità, i suoi vantaggi ed i suoi svantaggi. In questa tesi verranno studiate alcune delle principali strutture di accelerazione spaziale (BVH, Uniform Grid ed Octree), concentrandosi in particolare sulle tecniche di costruzione ed attraversamento di ognuna di esse. Per farlo, verrà anche trattato tutto il background necessario sul Raytracing e Le strutture di accelerazione verranno anche implementate e messe a confronto su diverse scene. Il confronto permetterà di evidenziare come ognuna di esse porti dei vantaggi, e che non esiste una struttura di accelerazione assolutamente migliore delle altre.
Resumo:
Il progetto di tesi nasce dall’interesse e dalla passione verso il mondo della Cybersecurity, che da sempre segna il mio percorso accademico e di vita, ma che durante questo ultimo anno di università ha avuto particolare rilevanza. Il progetto è stato svolto con il supporto e la supervisione del team Railway dell’azienda ALTEN Italia presso la sede di Bologna. Il lavoro di tesi mira allo sviluppo di un componente software che rappresenta un livello aggiuntivo di sicurezza nella comunicazione tra sistemi di bordo e di terra. In particolare, il progetto si pone come obiettivo la creazione di un Bridge, ovvero un componente software indipendente e configurabile che si interfaccia sia con il client che con il server, con lo scopo di garantire autenticità e cifratura dei messaggi scambiati tra le due entità. Inoltre, la potenza del Bridge sta nel fatto che nasce come possibile soluzione ai problemi di sicurezza informatica in ambito ferroviario, ma la sua applicabilità può essere estesa anche ad altri settori in cui sia presente una comunicazione client/server da rendere sicura. Infatti, tale software risulta particolarmente flessibile e adattabile, attraverso l’impostazione a priori di parametri di configurazione, in base al tipo di comunicazione che si desidera implementare tra le due entità. Per questo motivo, si ritiene che la forza del progetto sia la possibilità di fornire una soluzione software per proteggere l’infrastruttura critica dei trasporti ferroviari da eventuali minacce informatiche, ma anche la capacità adattiva del Bridge, in grado di svolgere le sue funzioni di sicurezza in un ampio ventaglio di ambiti di applicazione.
Resumo:
Il perfezionamento dei campi di forza in meccanica molecolare, necessario per migliorare l’accuratezza della modellazione classica di materiali, è un procedimento dispendioso. L’accuratezza dei campi di forza è tuttavia la chiave per la predizione affidabile di proprietà chimico-fisiche dalle simulazioni MD. A questo scopo, risulta importante l’inclusione esplicita della polarizzazione, trascurata nei campi di forze tradizionali. Il modello dell’oscillatore di Drude rappresenta una soluzione computazionalmente conveniente ed è implementato in diversi software di simulazione. In questo modello, la polarizzazione atomica è resa dall’introduzione di una particella carica e di massa ridotta, ancorata all’atomo polarizzabile. In questo lavoro di tesi abbiamo sviluppato una procedura per ottenere un campo di forza polarizzabile per molecole organiche in fase liquida, prendendo in esame un solvente polare molto comune: l’acetonitrile. Il nostro approccio si serve di calcoli quantomeccanici preliminari per la determinazione dei valori di riferimento di alcune proprietà molecolari: le cariche parziali atomiche, il momento di dipolo e la polarizzabilità. A questi calcoli seguono due fasi di parametrizzazione basate su algoritmi di minimizzazione. La prima fase riguarda la parametrizzazione delle polarizzabilità atomiche descritte con il modello di Drude e ha come scopo la riproduzione della polarizzabilità molecolare quantomeccanica. Nella seconda fase, si sono ottimizzati i parametri del potenziale Lennard-Jones in modo da riprodurre la densità sperimentale a temperatura e pressione ambiente, ottenendo diverse parametrizzazioni del campo di forza polarizzabile. Infine, queste parametrizzazioni sono state confrontate sulla base della loro capacità di riprodurre alcune proprietà di bulk, quali entalpia di vaporizzazione, costante dielettrica, coefficiente di diffusione e specifiche funzioni di distribuzione radiale.