1000 resultados para topologia computazionale funzioni di taglia
Resumo:
Il presente elaborato di tesi si pone come obiettivo lo studio dei criteri di progettazione di un impianto fotovoltaico connesso alla rete con sistema di accumulo. In primo luogo, è stato introdotto il tema dell’energia rinnovabile, in particolare l’energia solare descrivendo e definendone le caratteristiche. In seguito, è stato descritto dettagliatamente l’effetto fotovoltaico e lo stato dell’arte relativo alla tecnologia fotovoltaica e tipologie di impianto. Si procede con lo studio dello scenario reale, la progettazione e il dimensionamento dell’impianto fotovoltaico, effettuata con l’ausilio di PVGIS Tool, SUNNYDESIGN e Microsoft Excel. In questa fase si scelgono i dispositivi principali, quali pannelli, inverter e sistema di accumulo in funzione delle caratteristiche del sito di installazione, che nel nostro caso è uno stabile adibito ad ufficio sito a Bologna in cui è possibile installare un impianto la cui taglia è di 20.8 kWp. In seguito, è presente lo studio della producibilità energetica pari a 30190 kWh/anno, nella quale è definito e calcolato l’autoconsumo dell’impianto tramite fogli di calcolo Excel. Segue l’introduzione alle normative, che definiscono lo stato dell’arte degli impianti fotovoltaici e il collegamento in BT (CEI 0-21, 64-8), e la progettazione elettrica, con l’utilizzo di AutoCAD, dell’impianto elettrico di collegamento in BT alla rete di distribuzione con allacciamento alla rete. Infine, l’elaborato si conclude con l’analisi economica dell’impianto con e senza sistema di accumulo, nella quale viene calcolato, tramite foglio Excel, il PayBackTime pari a 5.08 anni nel primo caso e 4.17 nel secondo, il risparmio energetico cumulativo nei 25 anni di esercizio previsti dell’impianto che è di 447.7 k€ per la prima tipologia di impianto e di 437.45 k€ per la seconda ed in conclusione i flussi di cassa durante lo stesso periodo che sono di 294.93 k€ per l’impianto fotovoltaico con accumulo e di 320.58 k€ per quello senza sistema di accumulo.
Resumo:
La tesi affronta il problema della scalabilità nelle blockchain decentralizzate nel contesto del trade-off tra portata delle transazioni e requisiti hardware per partecipare alla rete. Vengono presentati i Rollup, ovvero tecnologie per verificare on-chain blocchi eseguiti off-chain minimizzando le assunzioni di fiducia. Viene discussa la variante dei Rollup Ottimistici, in particolare di Optimism e l'utilizzo di prove d'invalidità tramite ricerca binaria interattiva e dei Rollup di Validità, in particolare di StarkNet e l'utilizzo di prove di validità tramite prove di integrità computazionale STARK. Infine si confrontano le due soluzioni sul tempo di prelievo, sul costo delle transazioni e tecniche per minimizzarlo, sulla possibilità di applicare la tecnologia ricorsivamente, sulla compatibilità con Ethereum e sulle licenze utilizzate.
Resumo:
In questo elaborato vengono introdotte le caratteristiche fondamentali della blockchain ed in particolare dello sviluppo di smart contract tramite Solidity nella Blockchain Ethereum. Successivamente, sono illustrate le applicazioni di questa tecnologia in ambito sanitario e viene presentato il progetto sviluppato. In seguito, viene spiegata nel dettaglio l’implementazione del già menzionato progetto e si mostrano i test svolti; viene, inoltre, mostrata una semplice analisi sul costo computazionale, in termini di gas, del codice scritto. Questa tecnologia si presta efficacemente a sviluppi di applicazioni in ambito sanitario per le sue proprietà, come l’immutabilità e la privacy; nel sistema sviluppato la profonda sicurezza delle transazioni (data dalla blockchain) rende possibile l’acquisto e la gestione di un’assicurazione sanitaria senza la necessità di appoggiarsi a terze parti. In conclusione, vengono discusse possibili modifiche e miglioramenti al sistema proposto.
Resumo:
La filosofia del lean thinking ha dimostrato in numerose occasioni, dalla sua nascita ad oggi, di poter apportare reali e consistenti benefici all’interno degli ambienti aziendali rivoluzionando a volte non solo il modo di produrre delle aziende ma anche quello di pensare, generando un profondo cambiamento culturale. La filosofia lean nasce come esigenza di riadattamento del sistema produttivo in contrapposizione a quello della mass production per questo molti dei testi di riferimento storici sul lean thinking citano prassi e casi aziendali che toccano esclusivamente l’ambito della produzione, tuttavia tale ambito rappresenta solamente uno dei tanti che si possono osservare in ambito aziendale. Successivamente si è compreso come il lean thinking rappresenti in realtà un sistema, composto da: principi, tecniche, metodi e strumenti in grado di garantire il miglioramento dei processi. Si tratta di fatto di un framework adattabile alle diverse funzioni aziendali e che per massimizzare la propria efficacia deve essere assimilato dall’intera organizzazione e non solo dall’ambiente produttivo. Negli anni infatti l’aggettivo “lean” è stato accostato agli ambiti più vari: lean sales, lean accounting, lean services, lean managment, lean organization, lean enterprise, lean office e molti altri. Tuttavia raramente ci si imbatte nel termine “lean warehousing” e ancora più raramente ci si imbatte in casi di applicazioni di strumenti lean in ambito logistico o a testi di riferimento che trattino l’argomento. In un mercato sempre più̀ competitivo è fondamentale per qualsiasi azienda avere una logistica efficiente e flessibile che consenta di offrire un alto livello di servizio per il cliente. Il magazzino rappresenta il punto di arrivo e di partenza per ogni flusso logistico e data la rilevanza che ancora oggi la sua funzione detiene per le aziende risulta fondamentale per il successo dell’interno sistema implementare anche in questa divisione la filosofia lean.
Resumo:
Nella presente tesi si studia il teorema di Jordan e se ne analizzano le sue applicazioni. La trattazione è suddivisa in tre capitoli e un'appendice di approfondimento sulla funzione di Vitali. Nel primo capitolo, inizialmente, vengono introdotte le funzioni a variazione totale limitata, provando anche una loro caratterizzazione. Poi sono definite le serie di Fourier e si pone attenzione al lemma di Riemann-Lebesgue e al teorema di localizzazione di Riemann. Infine sono enunciati alcuni criteri di convergenza puntale e uniforme. Nel secondo capitolo, viene enunciato e dimostrato il teorema di Jordan. Verrà introdotto, inizialmente, una generalizzazione del teorema della media integrale, necessario per la prova del teorema di Jordan. Il terzo capitolo è dedicato alle applicazione del teorema di Jordan. Infatti si dimostra che ogni serie di Fourier può essere integrata termine a termine su ogni intervallo compatto. Di tale applicazione se ne darà anche una formulazione duale. Infine, nell'appendice, viene costruita la funzione di Vitali e ne sono riportate alcune delle sue proprietà.
Resumo:
Lo scopo della tesi è dimostrare il teorema di Arnold-Liouville, il quale afferma che dato un sistema a n gradi di libertà, con n integrali primi del moto in involuzione, esiste una trasformazione canonica di variabili azione-angolo, attraverso la quale si può riscrivere il sistema in uno ad esso equivalente, ma dipendente solo dalle azioni. Per arrivare a questo risultato nel primo capitolo viene richiamata la nozione di sistema hamiltoniano, di flusso del sistema e delle sue proprietà, viene infine introdotta una operazione binaria tra funzioni, la parentesi di Poisson, evidenziando il suo legame con il formalismo hamiltoniano. Nel secondo capitolo si definisce inizialmente cos'è una trasformazione canonica di variabili, dimostrando poi alcuni criteri per la canonicità di queste, mediante la verifica di determinate condizione necessarie e sufficienti, con opportuni esempi di trasformazioni canoniche e non. Nel terzo capitolo si definisce cos'è un sistema hamiltoniano integrabile, facendone successivamente un esempio a un grado di libertà con il pendolo. Il procedimento svolto in questo esempio si vorrà poi estendere a un generico sistema a n gradi di libertà, dunque verrà enunciato e dimostrato il teorema di Arnold-Liouvill, il quale, sotto opportune ipotesi, permette di risolvere questo problema.
Resumo:
In questa tesi si definisce il problema della martingala, fondamentale in quanto la sua esistenza e unicità della soluzione coincidono con l'esistenza e unicità delle soluzioni deboli delle SDE. Nel Capitolo 1 vengono richiamate alcune nozioni di topologia negli spazi metrici, in particolare la nozione di tightness e il Teorema di Prokhorov. Nel Capitolo 2 vengono introdotte le equazioni differenziali stocastiche, con cenni a risultati di esistenza e unicità forte. Nel Capitolo 3 viene definito il problema della martingala, viene dimostrata la sua equivalenza con il problema delle soluzioni deboli; infine, vengono enunciati e dimostrati importanti risultati di esistenza e unicità.
Resumo:
Le interfacce cervello-macchina (BMIs) permettono di guidare devices esterni utilizzando segnali neurali. Le BMIs rappresentano un’importante tecnologia per tentare di ripristinare funzioni perse in patologie che interrompono il canale di comunicazione tra cervello e corpo, come malattie neurodegenerative o lesioni spinali. Di importanza chiave per il corretto funzionamento di una BCI è la decodifica dei segnali neurali per trasformarli in segnali idonei per guidare devices esterni. Negli anni sono stati implementati diversi tipi di algoritmi. Tra questi gli algoritmi di machine learning imparano a riconoscere i pattern neurali di attivazione mappando con grande efficienza l’input, possibilmente l’attività dei neuroni, con l’output, ad esempio i comandi motori per guidare una possibile protesi. Tra gli algoritmi di machine learning ci si è focalizzati sulle deep neural networks (DNN). Un problema delle DNN è l’elevato tempo di training. Questo infatti prevede il calcolo dei parametri ottimali della rete per minimizzare l’errore di predizione. Per ridurre questo problema si possono utilizzare le reti neurali convolutive (CNN), reti caratterizzate da minori parametri di addestramento rispetto ad altri tipi di DNN con maggiori parametri come le reti neurali ricorrenti (RNN). In questo elaborato è esposto uno studio esplorante l’utilizzo innovativo di CNN per la decodifica dell’attività di neuroni registrati da macaco sveglio mentre svolgeva compiti motori. La CNN risultante ha consentito di ottenere risultati comparabili allo stato dell’arte con un minor numero di parametri addestrabili. Questa caratteristica in futuro potrebbe essere chiave per l’utilizzo di questo tipo di reti all’interno di BMIs grazie ai tempi di calcolo ridotti, consentendo in tempo reale la traduzione di un segnale neurale in segnali per muovere neuroprotesi.
Resumo:
La tesi descrive un modello AIMMS di ottimizzazione dei flussi di potenza tra gli utenti di una comunità energetica rinnovabile. Il modello considera la presenza nella stessa rete di distribuzione di più comunità energetiche. Ogni utente può scegliere un fornitore diverso dagli altri anche se partecipa ad una comunità. Sono considerati generatori fotovoltaici e sistemi di accumulo. Per i carichi sono stati generati profili tipici di utenze domestiche. Il modello è in grado di valutare i prezzi delle transazioni di energia interne a ciascuna comunità, in base alle tariffe orarie dei fornitori di energia. Per la rete di distribuzione test IEEE a 123 nodi, la tesi presenta una analisi di sensitività al variare della taglia dei sistemi di accumulo, della potenza di picco dei generatori fotovoltaici, della potenza richiesta dai carichi, del numero di comunità energetiche e dei fornitori.
Resumo:
Sempre più negli ultimi anni si interagisce con i chatbot, software che simulano una conversazione con un essere umano utilizzando il linguaggio naturale. L’elaborato di tesi mira ad uno studio più approfondito della tematica, a partire da come tale tecnologia si è evoluta nel corso degli anni. Si procede analizzando le principali applicazioni dei bot, soffermandosi anche sui cambiamenti apportati dalla pandemia di Covid-19, ed evidenziando le principali ragioni che portano aziende e singoli al loro utilizzo. Inoltre, vengono descritti i diversi tipi di bot esistenti e viene analizzato il Natural Language Processing, ramo dell’Intelligenza Artificiale che mira alla comprensione del linguaggio naturale. Nei capitoli successivi viene descritto il progetto CartBot, un’applicazione di chat mobile per l’e-grocery, implementata come un chatbot che guida il cliente all’acquisto della spesa online. Vengono descritte le tecnologie utilizzate, con particolare riferimento al software di Google Dialogflow, che permette di sviluppare bot; inoltre viene analizzata come è stata effettuata la progettazione, sia lato front-end che back-end, allegando il flowchart, un diagramma di flusso realizzato per definire la sequenza di azioni e passaggi richiesti dal bot per effettuare l’acquisto. Infine, sono descritte le varie sottosezioni di CartBot, che riguardano la visualizzazione dei prodotti e il completamento dell’ordine, allegando screenshot dell’interfaccia finale ottenuta e inserendo il codice di alcune funzioni rilevanti.
Resumo:
Prevedere quanto e quando un cliente richiederà un determinato prodotto è da sempre una delle sfide più complicate che un’azienda deve affrontare. Una delle metodologie più utilizzate è il processo di Sales and Operations, costituito da 5 fasi. L’obiettivo di questo elaborato è illustrare la creazione del processo applicata a una famiglia di prodotti che andrà a sostituire molteplici altri codici prodotti dell’azienda Sherwin-Williams. Per la creazione si è interagito con varie funzioni della multinazionale, tra cui l’ufficio di supply chain, l’ufficio vendite e i vari uffici produzione degli stabilimenti europei. La creazione del processo si articola nelle 5 fasi classiche quindi: raccolta dati sulla domanda futura in cui sono stati individuati i consumi interni e le vendite ai clienti terzi dei prodotti; la creazione del piano di domanda e del piano di produzione iniziale, approvazione produzione delle quantità concordate e definizione delle politiche di gestione sia delle strutture clienti che dello stabilimento produttivo, infine, la fase di miglioramento e monitoraggio del processo. Nell’ultima fase tra le migliorie al processo si ridurrà il numero di codici univoci da gestire del 34%, verrà individuata la zona ottimale per l’ubicazione di un magazzino distributivo e si analizzerà l’aderenza alla schedulazione presso il reparto liquidi dello stabilimento con l’obiettivo di ridurre il Lead Time di produzione.
Resumo:
In questa tesi è stata analizzata attraverso una modellazione numerica tramite Xbeach la batimetria delle coste di Cesenatico Ponente e la sua modifica dopo eventi meteomarini del clima tipico della durata di 12 ore. Verrà analizzata in primis l'area di studio attraverso la descrizione delle caratteristiche e delle opere presenti, si delineeranno quali funzioni vengono adottate nel modello e seguiranno poi le spiegazioni di tutti i passi svolti e quali parametri sono stati utilizzati per lanciare una simulazione. Infine, verranno mostrati e commentati i risultati più significativi.
Resumo:
In questa tesi abbiamo voluto studiare alcune delle proprietà e caratterizzazioni di questa classe di insiemi e di funzioni, nonchè alcune loro possibili applicazioni. Nel primo capitolo vengono analizzati gli insiemi convessi in R^n con le loro proprietà; se ne osserva la relazione con gli iperpiani e con l’inviluppo convesso dell’insieme stesso. Infine abbiamo studiato come la funzione distanza da un insieme caratterizzi gli insiemi convessi. Nel secondo capitolo abbiamo guardato invece le funzioni convesse, osservando alcuni esempi, per poi focalizzarci sulle proprietà generali e diverse possibili caratterizzazioni. In particolare abbiamo osservato come le cosiddette funzioni lisce si relazionano alla convessità. Nella sezione sulla dualità convessa abbiamo infine esaminato il caso di funzioni con codominio R esteso per studiare funzioni convesse semicontinue inferiormente, fino ad arrivare alla dualità. Nel terzo capitolo, vediamo una delle tante possibili applicazioni della teoria convessa, la teoria dei giochi. L’ultimo capitolo è molto breve e non vuole entrare nel merito di questa importante area della matematica, ma vuole solo far “vedere all’opera” alcune delle proprietà della teoria convessa precedentemente esposta.
Resumo:
In questo elaborato si illustra una delle principali proprietà godute dalle funzioni armoniche: la disuguaglianza di Harnack, dal nome del matematico che la dimostrò nel 1887. Nella sua formulazione più semplice, essa afferma che se una funzione armonica è non negativa, allora l'estremo superiore di tale funzione su una palla euclidea è controllato dall'alto dall'estremo inferiore della funzione sulla stessa palla, a meno di una costante moltiplicativa dipendente solo dalla dimensione. Una simile disuguaglianza è soddisfatta anche da soluzioni di equazioni alle derivate parziali più generali dell'equazione di Laplace. Ad esempio, J. Moser nel 1961 dimostra che le soluzioni deboli di equazioni differenziali ellittiche lineari soddisfano una disuguaglianza di tipo Harnack. Tale risultato è argomento dell'ultimo capitolo di questo elaborato.
Resumo:
L'elaborato tratta lo studio dell’evoluzione delle perturbazioni di densità non lineari, confrontando modelli con costante cosmologica (wΛ = −1) e modelli alternativi in cui l’energia oscura sia caratterizzata da un’equazione di stato con w diverso da −1, considerando sia il caso con energia oscura costante, sia quello in cui ha fluttuazioni. La costante cosmologica presenta infatti due problemi teorici attualmente senza soluzione: il problema del suo valore e il problema della coincidenza. Per analizzare l’evoluzione delle perturbazioni di materia ed energia oscura, sia nel caso delle sovradensità che nel caso delle sottodensità primordiali, si implementano numericamente le equazioni differenziali non lineari ricavate a partire dalla teoria del collasso sferico. Per parametrizzare il problema, si fa riferimento ai valori critici del contrasto di densità δc e δv che rappresentano, rispettivamente, la soglia lineare per il collasso gravitazionale e la soglia per l’individuazione di un vuoto cosmico. I valori di δc e δv sono importanti poich´e legati agli osservabili cosmici tramite la funzione di massa e la void size function. Le soglie critiche indicate sono infatticontenute nelle funzioni citate e quindi, cambiando δc e δv al variare del modello cosmologico assunto, è possibile influenzare direttamente il numero e il tipo di oggetti cosmici formati, stimati con la funzione di massa e la void size function. Lo scopo principale è quindi quello di capire quanto l’assunzione di un modello, piuttosto che di un altro, incida sui valori di δc e δv. In questa maniera è quindi possibile stimare, con l’utilizzo della funzione di massa e della void size function, quali sono gli effetti sulla formazione delle strutture cosmiche dovuti alle variazioni delle soglie critiche δc e δv in funzione del modello cosmologico scelto. I risultati sono messi a confronto con il modello cosmologico standard (ΛCDM) per cui si assume Ω0,m = 0.3, Ω0,Λ = 0.7 e wΛ = −1.