1000 resultados para Equazioni di convoluzione, funzioni plurisubarmoniche, funzioni di supporto.
Resumo:
Il presente elaborato ha l’obiettivo di analizzare il fenomeno dei giochi di parole, in particolar modo quelli bilingue, e le allusioni, andandone a definire i tipi, le funzioni, gli usi e le caratteristiche. L’analisi è stata eseguita prendendo come riferimento alcuni esempi dei programmi russi Ciao, 2020! e Ciao, 2021!, in cui l’uso della lingua italiana svolge un ruolo fondamentale. L’intento è quello di comprendere più a fondo il funzionamento dei mezzi e strumenti per creare l’effetto comico, tenendo conto anche della cultura di un popolo: l’uso innovativo della lingua straniera per creare giochi di parole bilingue, le allusioni culturospecifiche russe e il modo in cui queste vengono utilizzate per avere un effetto sul pubblico sono alla base dell’unicità e originalità di questo elaborato. Inoltre, viene anche analizzata la risposta dell’audience italiana ai tentativi di fare umorismo, studiata sulla base di fenomeni come il failed humour e i culture bumps, cercando di dare una motivazione a tale reazione.
Resumo:
In questo elaborato si studiano i risultati di convergenza di due differenti metodi stocastici di discesa dei gradienti applicati a funzioni non convesse. Si confrontano le ipotesi che caratterizzano i due differenti metodi e si paragonano i risultati a cui ogni metodo giunge.
Resumo:
La città di Rimini negli anni della Ricostruzione, a causa delle ampie distruzioni e alla crescita del turismo, è stata sottoposta ad un processo di compromissione dell’identità storica e d’impoverimento del patrimonio architettonico esistente. La tesi verte nell’elaborazione di una proposta progettuale di conversione e rifunzionalizzazione del Mercato Coperto di Rimini, appartenente al centro storico della città, in cui diverse stratificazioni del palinsesto architettonico sono parzialmente sopravvissute all’opera di speculazione edilizia. Col fine di comprendere le diverse stratificazioni presenti all’interno dell’area d’intervento, si è svolta un’analisi storica, individuando come la frammentazione dell’attuale contesto sia debitrice alla mancanza di un piano organico di ricostruzione. Indentificando l’edificio del Mercato Coperto come il fabbricato con le maggiori problematiche all’interno dell’area, si è quindi proceduto ad analizzare il tema architettonico del mercato coperto, approfondendo lo sviluppo dei diversi modelli storici ed analizzando come lo scenario attuale sia in parte debitore al processo di specializzazione che ha coinvolto questo tipo di spazi. La proposta progettuale verte sul superamento dell’attuale modello di riferimento adottato dal Mercato Coperto, che rifiuta il dialogo con il contesto circostante, acuendo le problematiche intrinseche di esso. Gli spazi interni sono stati convertiti grazie all’inserimento di nuovi volumi, capaci di ospitare un mercato coperto, una biblioteca e una piazza coperta, rielaborando in ottica moderna la coesistenza di funzioni sociali e commerciali tipiche dei modelli di riferimento più antichi. All’esterno l’edificio è stato dotato di spazi di mediazione con il contesto grazie alla trasformazione dell’involucro edilizio e all’inserimento velari mobili che definiscono una nuova piazza a disposizione della comunità e un nuovo ingresso, capace di risolvere la tensione con il patrimonio storico preesistente.
Resumo:
Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.
Resumo:
I gangli della base (BG) sono un gruppo di nuclei subcorticali che si trovano alla base del telencefalo e nella parte superiore del mesencefalo. La funzione dei BG è il controllo e la regolazione delle attività delle aree corticali motorie e premotorie in modo che i movimenti possano essere eseguiti fluidamente, ma sono coinvolti in numerosi altri processi motori e cognitivi. L’obiettivo che si pone questo lavoro di tesi è di simulare il comportamento dei BG attraverso un nuovo modello neurocomputazionale. È stato valutato il funzionamento del modello in varie condizioni, di base ed alterate, per illustrare casi standard (soggetti sani) e casi patologici (deplezione di dopamina nei pazienti Parkinson o ipermedicazione della dopamina tramite levodopa) durante un compito di probabilistic reversal learning (RL). Sono stati variati parametri di dopamina tonica e di rumore applicato ai soggetti e ai dati per simulare il modello durante il “one-choice task” presente in letteratura. I risultati raccolti indicano come il modello funzioni in maniera del tutto confrontabile con i risultati in letteratura, dimostrando la sua validità ed un utilizzo corretto dei parametri e della regola di apprendimento. Non è stato possibile dire altrettanto per seconda fase del RL, in cui la regola viene invertita: i soggetti non risultano apprendere in maniera coerente rispetto ai dati in letteratura, ma risultano restii all’individuazione del nuovo stimolo vincente. Tale risultato è da ricondursi probabilmente ad alcuni fattori: il numero di epoche utilizzate per il test sono esigue, lasciando ai soggetti poco tempo per apprendere la nuova regola; la regola di apprendimento usata nel reversal potrebbe non rappresentare la scelta migliore per rendere i soggetti più esplorativi nei confronti delle scelte proposte. Tali limiti sono spunti per futuri sviluppi del modello e del suo funzionamento, utilizzando regole di apprendimento diverse e più efficaci rispetto ai diversi contesti di azione.
Resumo:
In questa trattazione viene presentato lo studio di un modello a raggi che permette di simulare il comportamento macroscopico delle Superfici Intelligenti. L’ottimizzazione del canale radio, in particolare dell’ambiente di propagazione, si rivela fondamentale per la futura introduzione del 6G. Per la pianificazione della propagazione in ambienti ampi, risulta necessario implementare modelli di simulazione. I modelli a raggi possono essere integrati più facilmente all’interno di algoritmi per le previsioni di campo computazionalmente efficienti, come gli algoritmi di Ray Tracing. Nell’elaborato si è analizzato il comportamento del modello, con riferimento a tre funzioni tipiche realizzate da una Superficie Intelligente: il riflettore anomalo, la lente focalizzante e la lente defocalizzante. Attraverso una griglia di ricevitori è stato calcolato il campo dell’onda nelle varie configurazioni. Infine, si sono confrontati i risultati ottenuti con quelli del modello elettromagnetico.
Resumo:
In questa tesi si vuole trattare il concetto di dimensione a partire dalla teoria della misura e lo si vuole applicare per definire e studiare gli insiemi frattali, in particolare, autosimili. Nel primo capitolo si tratta la dimensione di Hausdorff a partire dalla teoria della misura di Hausdorff, di cui si osservano alcune delle proprietà grazie a cui la prima si può definire. Nel secondo capitolo si danno altre definizioni di dimensione, come ad esempio quella di auto-similarità e la box-counting, per mostrare che tale concetto non è univoco. Si analizzano quindi le principali differenze tra le diverse dimensioni citate e si forniscono esempi di insiemi per cui esse coincidono e altri, invece, per cui esse differiscono. Nel terzo capitolo si introduce poi il vero e proprio concetto di insieme frattale. In particolare, definendo i sistemi di funzioni iterate e studiandone le principali proprietà, si definisce una particolare classe di insiemi frattali detti autosimili. In questo capitolo sono enunciati e dimostrati teoremi fondamentali che legano gli attrattori di sistemi di funzioni iterate a insiemi frattali autosimili e forniscono, per alcuni specifici casi, una formula per calcolarne la dimensione di Hausdorff. Si danno, inoltre, esempi di calcolo di tale dimensione per alcuni insiemi frattali autosimili molto noti. Nel quarto capitolo si dà infine un esempio di funzione che abbia grafico frattale, la Funzione di Weierstrass, per mostrare un caso pratico in cui è utilizzata la teoria studiata nei capitoli precedenti.
Resumo:
Il matematico tedesco Oscar Perron, tra il 1910 e il 1914, introduce l'integrale che porterà il suo nome con lo scopo di risolvere una limitazione negli integrali di Riemann e di Lebesgue. Il primo a studiare questo integrale è Denjoy nel 1912 il cui integrale si dimostrerà essere equivalente a quello di Perron. Oggi è più utilizzato l'integrale di Henstock-Kurzweil, studiato negli anni '60, anch'esso equivalente ai due precedenti. L'integrale di Perron rende integrabili tutte le funzioni che sono la derivata di una qualche funzione e restituisce l'analogo del Teorema Fondamentale del Calcolo Integrale nella versione di Torricelli-Barrow. L'integrale di Perron estende e prolunga l'integrale di Lebesgue, infatti se una funzione è sommabile secondo Lebesgue è anche Perron-integrabile e i due integrali coincidono. Per le funzioni non negative vale anche il viceversa e i due integrali sono equivalenti, ma in generale non è così, esistono infatti funzioni Perron-integrabili ma non sommabili secondo Lebesgue. Una differenza tra questi due integrali è il fatto che quello di Perron non sia un integrale assolutamente convergente, ovvero, la Perron integrabilità di una funzione non implica l'integralità del suo valore assoluto; questa è anche in parte la ragione della poca diffusione di questo integrale. Chiudono la tesi alcuni esempi di funzioni di interesse per la formula di "Torricelli-Barrow" e anche un notevole teorema che non sempre si trova nei libri di testo: se una funzione è derivabile in ogni punto del dominio e la sua derivata prima è sommabile allora vale la formula di "Torricelli-Barrow".
Resumo:
Il tema centrale di questa Tesi è il cosiddetto "Teorema di Rappresentazione di Riesz" per i funzionali positivi su alcuni spazi di funzione continue. Questo Teorema, caposaldo dell'Analisi Funzionale, è inscindibilmente legato alla Teoria della Misura. Esso, infatti, stabilisce un'importante legame tra funzionali lineari positivi e misure positive di Radon. Dopo un'ampia disamina di questo Teorema, la Tesi si concentra su alcune delle sue Applicazioni in Analisi Reale e in Teoria del Potenziale. Nello specifico, viene provato un notevole risultato di Analisi Reale: la differenziabilità quasi dappertutto delle funzioni monotone su un intervallo reale. Nella dimostrazione di questo fatto, risulta cruciale anche un interessantissimo argomento di "continuità dalla positività", attraverso cui passiamo varie volte nella Tesi. Infatti, esso è determinante anche nelle Applicazioni in Teoria del Potenziale per la costruzione della misura armonica di un aperto regolare e della cosiddetta "misura di Riesz di una funzione subarmonica".
Resumo:
L'argomento della Tesi è lo studio delle serie trigonometriche e di Fourier: in particolare, il problema dello sviluppo in serie trigonometrica di una data funzione 2π-periodica e l'unicità di tale sviluppo, che si deduce dal Teorema di Lebesgue e Du Bois-Reymond. Nel Capitolo 1 sono stati richiamati alcune definizioni e risultati di base della teoria delle serie trigonometriche e di Fourier. Il Capitolo 2 è dedicato alla teoria della derivata seconda di Schwarz (una generalizzazione della derivata seconda classica) e delle cosidette funzioni 1/2-convesse: il culmine di questo capitolo è rappresentato dal Teorema di De la Vallée-Poussin, che viene applicato crucialmente nella prova del teorema centrale della tesi. Nel Capitolo 3 si torna alla teoria delle serie trigonometriche, applicando i risultati principali della teoria della derivata seconda di Schwarz e delle funzioni 1/2-convesse, visti nel capitolo precedente, per definire il concetto di funzione di Riemann e di somma nel senso di Riemann di una serie trigonometrica e vederne le principali proprietà. Conclude il Capitolo 3 la prova del Teorema di Lebesgue e Du Bois-Reymond, in cui vengono usate tutte le nozioni e i risultati del terzo capitolo e il Teorema di De la Vallée-Poussin. Infine, il Capitolo 4 è dedicato alle applicazione del Teorema di Lebesgue e Du Bois-Reymond. In una prima sezione del Capitolo 4 vi sono alcuni casi particolari del Teorema di Lebesgue e Du Bois-Reymond e in particolare viene dimostrata l'unicità dello sviluppo in serie trigonometrica per una funzione 2π-periodica e a valori finiti. Conclude la Tesi un'altra applicazione del Teorema di Lebesgue e Du Bois-Reymond: la prova dell'esistenza di funzioni continue e 2π-periodiche che non sono la somma puntuale di nessuna serie trigonometrica, con un notevole esempio di Lebesgue.
Resumo:
Questa tesi riguarda il Teorema di Morse-Sard nella sua versione generale. Tale teorema afferma che l'immagine dei punti critici di una funzione di classe C^k da un aperto di R^m a R^n è un insieme di misura di Lebesgue nulla se k >= m-n+1 (se m >= n) o se k >= 1 (se m
Resumo:
Di fronte alla concorrenza globale, la sopravvivenza di un'azienda manifatturiera dipende sempre più da come essa può progettare, gestire e strutturare al meglio il proprio sistema di produzione per far fronte alla diversità dei prodotti, per migliorare l'affidabilità di consegna e anche per ridurre i costi. In questo contesto, le aziende manifatturiere utilizzano spesso sistemi di produzione diversi, in base a ciò che richiede il mercato. Molto in generale, i sistemi produttivi possono essere classificati in due categorie principali: make-to-stock (MTS) e make-to-order (MTO), in base alla politica di risposta alla domanda del mercato. Nel nuovo contesto competitivo le aziende si sono trovate a dover produrre costantemente prodotti specifici e di alta qualità con costi unitari bassi e livelli di servizio elevati (ossia, tempi di consegna brevi). È chiaro, dunque, che una delle principali decisioni strategiche da prendere da parte delle aziende sia quella relativa alla ripartizione dei prodotti in MTS/MTO, ovvero quale prodotto o famiglia di prodotti può essere fabbricato per essere stoccato a magazzino (MTS), quale può essere prodotto su ordinazione (MTO) e quale dovrebbe essere fabbricato in base alla politica di produzione ibrida MTS/MTO. Gli ultimi anni hanno mostrato una serie di cambiamenti nella politica di produzione delle aziende, che si stanno gradualmente spostando sempre più verso la modalità̀ di produzione ibrida MTS/MTO. In particolare, questo elaborato si concentrerà sul delayed product differentiation (DPD), una particolare strategia produttiva ibrida, e ne verrà proposto un modello decisionale basato sul funzionamento dell’Analytic Network Process (ANP) implementato attraverso il software Superdecisions.
Resumo:
Le recenti restrizioni, che sono state imposte negli ultimi anni, in termini di emissioni hanno dato modo di portare innovazioni tecnologiche nel campo automotive. In particolare, è stata fatta molta strada nel campo dei sistemi di propulsione con lo scopo di ridurre gli inquinanti dovuti ai motori termici tramite l’utilizzo di veicoli ibridi ed elettrici. Oltre a questo, è cresciuta la ricerca anche per tematiche quali: nuove strategie di iniezione, nuovi tipi di combustibile e di motori e analisi più dettagliate dei processi di combustione. Queste innovazioni sono andate di pari passo con uno sviluppo tecnologico riguardante il controllo elettronico presente nel veicolo, il quale permette una maggiore precisione rispetto a quello meccanico. Al fine migliorare l’accuratezza del controllo elettronico è quindi fondamentale l’utilizzo dei segnali provenienti dai sensori, in modo tale da poter individuare e correggere eventuali problemi. Questo progetto ha infatti l’obiettivo di sviluppare strategie per l’analisi e il trattamento di una grande mole di dati, in modo tale da avere un controllo preciso ed automatizzato in modo tale da rendere la procedura meno soggetta ad errori e più veloce. Nello specifico il progetto di tesi è stato incentrato sull’implementazione di nuovi trigger, i quali hanno lo scopo di valutare i segnali in modo tale che non siano presenti problemi per la calibrazione del veicolo. In particolare, sono stati implementati trigger riguardanti il misfire e il controllo dei componenti di un veicolo ibrido, come per esempio il BSG e la batteria a 48V. Il tool fornisce quindi la possibilità di essere sempre aggiornato, ma anche di restituire risultati sempre più precisi potendo aumentare il numero delle funzioni e delle condizioni in essi presenti, con la possibilità, un giorno, di poter realizzare a bordo l’intero processo di calibrazione del motore.
Resumo:
L’eccessiva centralizzazione dei dati ha reso sempre più frequenti fenomeni di manomissione e condivisione delle informazioni degli utenti senza il consenso dei proprietari. Questi potenziali rischi hanno aumentato negli utenti l’esigenza di una maggiore autorità sui propri dati, suscitando l’interesse per il decentramento. Questa tesi analizza due approcci al decentramento che sono Solid e Blockchain, e si concentra sui sistemi legati al controllo degli accessi derivanti dalla combinazione di questi due approcci. L’analisi parte dal descrivere le principali caratteristiche e funzionalità di Solid e Blockchain. Successivamente, dalla tesi si evince come, questi due paradigmi combinati insieme, possano rappresentare una soluzione valida alla decentralizzazione dei dati e vengono illustrati i principali ambiti in cui possono essere applicati sistemi assisti da Blockchain per Solid. In particolare lo studio approfondisce l'applicazione al controllo degli accessi e autenticazione dei dati. Due sono i sistemi presi in esame e approfonditi in questa tesi ovvero BCSolid e TrustAccess. Entrambi sono stati descritti in maniera dettagliata delineando l’architettura, la progettazione, le tecniche crittografiche utilizzate e illustrando dei casi d’uso pratici. Nella parte finale di questo elaborato viene effettuato un confronto tra questi due sistemi e spiegati i motivi per cui Trust Access può essere considerato migliore di BCSolid.
Resumo:
Il perfezionamento dei campi di forza in meccanica molecolare, necessario per migliorare l’accuratezza della modellazione classica di materiali, è un procedimento dispendioso. L’accuratezza dei campi di forza è tuttavia la chiave per la predizione affidabile di proprietà chimico-fisiche dalle simulazioni MD. A questo scopo, risulta importante l’inclusione esplicita della polarizzazione, trascurata nei campi di forze tradizionali. Il modello dell’oscillatore di Drude rappresenta una soluzione computazionalmente conveniente ed è implementato in diversi software di simulazione. In questo modello, la polarizzazione atomica è resa dall’introduzione di una particella carica e di massa ridotta, ancorata all’atomo polarizzabile. In questo lavoro di tesi abbiamo sviluppato una procedura per ottenere un campo di forza polarizzabile per molecole organiche in fase liquida, prendendo in esame un solvente polare molto comune: l’acetonitrile. Il nostro approccio si serve di calcoli quantomeccanici preliminari per la determinazione dei valori di riferimento di alcune proprietà molecolari: le cariche parziali atomiche, il momento di dipolo e la polarizzabilità. A questi calcoli seguono due fasi di parametrizzazione basate su algoritmi di minimizzazione. La prima fase riguarda la parametrizzazione delle polarizzabilità atomiche descritte con il modello di Drude e ha come scopo la riproduzione della polarizzabilità molecolare quantomeccanica. Nella seconda fase, si sono ottimizzati i parametri del potenziale Lennard-Jones in modo da riprodurre la densità sperimentale a temperatura e pressione ambiente, ottenendo diverse parametrizzazioni del campo di forza polarizzabile. Infine, queste parametrizzazioni sono state confrontate sulla base della loro capacità di riprodurre alcune proprietà di bulk, quali entalpia di vaporizzazione, costante dielettrica, coefficiente di diffusione e specifiche funzioni di distribuzione radiale.