964 resultados para problema isoperimetrico serie di Fourier convergenza in L^2 identità di Parseval
Resumo:
Pacchetto R per il supporto dell'analisi di dati spazio temporali. Il pacchetto fornisce due funzioni, le quali permettono di avviare due applicazioni web, sviluppate con il framework shiny, per la visualizzazione di dati con connotazione spaziale di tipo areale o puntuale. Le applicazioni generano, a partire dai dati caricati dall'utente, due grafici interattivi per la visualizzazione della distribuzione temporale e spaziale del fenomeno che i dati descrivono. Sono previsti, all'interno dell'interfaccia utente delle applicazioni, una serie di componenti che permettono di personalizzare i grafici prodotti.
Resumo:
Il presente lavoro di tesi si è posto sostanzialmente due obbiettivi principali. Il primo è stato quello di valutare in maniera speditiva la vulnerabilità sismica dell’Edificio 5 - BO0960005 in uso alla polizia di stato, mediante il metodo RE.SIS.TO. Il secondo obiettivo è stato quello di validare tramite modellazione agli elementi finiti, i risultati ottenuti con la metodologia speditiva. In particolare è stato confrontato il rapporto PGAc/PGAd della struttura ottenuto con l’approccio speditivo, con quello ottenuto tramite un’analisi pushover. L’Edificio 5 – BO0960005 oggetto di studio, è composto da tre unità strutturali in c.a., denominate U.S.1, U.S.2 e U.S.3, separate da giunti sismici. Gli studi effettuati successivamente, quindi, considereranno ciascuna unità strutturale indipendente dalle altre. Come precedentemente esposto, la prima parte dell’elaborato tratta la valutazione speditiva della vulnerabilità sismica, attraverso l’utilizzo della classificazione RE.SIS.TO, il quale è in grado di definire il livello di criticità del fabbricato. Nell’applicazione del metodo è stato ottenuto un livello di sicurezza, pari all’88% per l’U.S.1, al 353% per l’U.S.2 e al 109% per l’U.S.3. La seconda parte della tesi è incentrata sull’implementazione dell’analisi pushover di tipo “cerniere concentrate” su un modello agli elementi finiti realizzato attraverso il software commerciale MidasGen. Essendo i risultati delle analisi PO una serie di curve di capacità, al fine di effettuare il confronto finale, si ha che in questo formato risulta impossibile ottenere una stima della PGA che porta a collasso la struttura. Per stimare da tale grandezza è stato utilizzato il Capacity Spectrum Method (CSM). Nell’ultima parte dell’elaborato vengono confrontati i valori di livelli di sicurezza ottenuti dalle due metodologie, dai quali si è potuta accertare la buona approssimazione della metodologia speditiva RE.SIS.TO nell’ambito della valutazione di vulnerabilità sismica.
Resumo:
L’accresciuto settore online della produzione, distribuzione e promozione di libri, sia in formato cartaceo che digitale, sta influenzando sempre di più le case editrici e gli autori ad adottare un approccio multimediale, contribuendo a creare un vero e proprio mercato parallelo, i cui vettori sono rappresentati dalla modalità tradizionale a cui si sta sempre più fortemente affiancando quella digitale e multimediale . Questa tesi ha l’obiettivo di analizzare come nell’ambito editoriale il passaggio al digitale abbia comportato una serie di modifiche nei paradigmi con cui la casa editrice e gli autori si interfacciano con i lettori, dalla modalità con la quale i prodotti editoriali digitali sono creati ed immessi nel mercato, al rapporto di comunicazione tra i lettori, gli autori e le aziende del settore. La prima parte della tesi si articola all’interno del rapporto tra editoria e internet, di come si sviluppa la struttura dell’editoria digitale e di come i canali distributivi abbiano modificato la modalità con cui i prodotti editoriali vengono catalogati e venduti, utilizzando i siti web e gli store online delle case editrici e degli autori.Il secondo capitolo indaga in maniera approfondita come una casa editrice dovrebbe rivolgersi dunque al marketing digitale, le tecniche e i percorsi che dovrebbe affrontare per raggiungere o ingrandire il proprio bacino d’utenza. Il terzo capitolo approfondisce la modalità del dialogo che si è venuto ad instaurare tra il lettore e le piattaforme digitali, e di come siano utilizzate dalle case editrici stesse per comunicare con i lettori propri utenti, attraverso una multimedialità che rende il libro un contenuto liquido, ovvero che si dirama in più informazioni. Il quarto e ultimo capitolo analizza nello specifico il caso Amazon Publishing. Seguiranno conclusioni sull'attuale situazione del mercato editoriale e sviluppi futuri.
Resumo:
La disponibilità di connessioni a internet poco costose ed affidabili rappresenta un lusso in molti paesi in via di sviluppo e in zone rurali di nazioni sviluppate. L’utilizzo di nuove tecnologie come le blockchain risulta quindi difficile in queste aree, per quanto esse trarrebbero certamente beneficio dalla disponibilità di sistemi di pagamento digitali, decentralizzati e tolleranti ai guasti; inoltre l’uso delle blockchain in zone rurali potrebbe rendere l’abitabilità di tali aree maggiormente appetibile. Una possibile soluzione è costituita dalle blockchain locali, ossia catene a servizio di una ristretta area geografica in cui è disponibile solamente una rete locale, da cui potrebbero ricevere vantaggio sia paesi in via di sviluppo, sia scenari industriali dove si necessiti di blockchain il cui accesso debba avvenire solamente dall’interno dell’intranet aziendale. L’utilità delle blockchain locali risulterebbe tuttavia limitata qualora questi sistemi rimanessero totalmente isolati dal mondo esterno. Utilizzando tecnologie che permettono l’interoperabilità tra blockchain è però possibile interconnettere questi sistemi, rendendo possibile il trasferimento di asset tra diverse chain. Le particolarità degli scenari ipotizzati lasciano però spazio ad alcune vulnerabilità, che, se sfruttate, possono condurre ad attacchi ai danni degli utenti e dell’economia delle blockchain locali. Per risolvere le problematiche individuate, sono stati quindi discussi ed implementati una serie di requisiti per la messa in sicurezza del sistema.
Resumo:
Le equazioni alle derivate parziali lineari (PDE’s) hanno un ruolo centrale in molte applicazioni di tipo scientifico, ingegneristico, medico, finanziario e sociale. È necessario, per questo motivo, avere metodi robusti che permettano di approssimare soluzioni di classi di PDE’s. Nell’ambito dei problemi lineari ellittici stazionari, una delle procedure comunemente utilizzate consiste nel discretizzare l’equazione differenziale mediante l’approssimazione delle derivate con differenze finite nel dominio considerato, e risolvere il sistema lineare algebrico risultante. Lo scopo dell’elaborato è studiare la dipendenza della convergenza del metodo dei Gradienti Coniugati dal parametro di discretizzazione per problemi ellittici autoaggiunti. Studieremo inoltre accelerazioni del metodo di tipo “Operator preconditioning”, che permettono di rendere l’algoritmo indipendente da tale parametro di discretizzazione in termini di numero di iterazioni.
Resumo:
La tomografia ad impedenza elettrica è un metodo di imaging relativamente nuovo che ha suscitato interesse in un ampia gamma di discipline, la sua portabilità, sicurezza e basso costo suggeriscono che potrebbe risolvere diversi problemi clinici. Matematicamente il problema dell'EIT può essere suddiviso in un problema in avanti e uno inverso. Il problema forward, si basa su un'equazione differenziale parziale ellittica, e definisce l'insieme delle tensioni misurate a partire da una distribuzione nota di conducibilità. Il problema inverso è modellato come un problema dei minimi quadrati non lineare, in cui si cerca di ridurre al minimo la differenza tra le tensioni misurate e quelle generate dalla conducibilità ricostruita. Il problema inverso è mal posto e porta ad una soluzione che non dipende con continuità dai dati e quindi le tecniche di ricostruzione richiedono l'introduzione di un termine di regolarizzazione. L'elaborato si concentra sulle strategie algoritmiche per il problema inverso e sulla realizzazione di un'interfaccia grafica in grado di settare i parametri e confrontare velocemente i metodi proposti. Il progetto nella sua visione più ampia vorrebbe utilizzare le strategie algoritmiche proposte per dati ottenuti dal sistema prodotto dall'Università di Bologna nel laboratorio di Ingegneria Cellulare e Molecolare (ICM) di Cesena. I risultati dei test consentono di delineare quali siano gli strumenti migliori per poter arrivare ad una corretta ricostruzione dell'immagine nonché suggerire possibili miglioramenti della configurazione hardware al fine arrivare a risultati sperimentali completi.
Resumo:
Nell’ambito della Stereo Vision, settore della Computer Vision, partendo da coppie di immagini RGB, si cerca di ricostruire la profondità della scena. La maggior parte degli algoritmi utilizzati per questo compito ipotizzano che tutte le superfici presenti nella scena siano lambertiane. Quando sono presenti superfici non lambertiane (riflettenti o trasparenti), gli algoritmi stereo esistenti sbagliano la predizione della profondità. Per risolvere questo problema, durante l’esperienza di tirocinio, si è realizzato un dataset contenente oggetti trasparenti e riflettenti che sono la base per l’allenamento della rete. Agli oggetti presenti nelle scene sono associate annotazioni 3D usate per allenare la rete. Invece, nel seguente lavoro di tesi, utilizzando l’algoritmo RAFT-Stereo [1], rete allo stato dell’arte per la stereo vision, si analizza come la rete modifica le sue prestazioni (predizione della disparità) se al suo interno viene inserito un modulo per la segmentazione semantica degli oggetti. Si introduce questo layer aggiuntivo perché, trovare la corrispondenza tra due punti appartenenti a superfici lambertiane, risulta essere molto complesso per una normale rete. Si vuole utilizzare l’informazione semantica per riconoscere questi tipi di superfici e così migliorarne la disparità. È stata scelta questa architettura neurale in quanto, durante l’esperienza di tirocinio riguardante la creazione del dataset Booster [2], è risultata la migliore su questo dataset. L’obiettivo ultimo di questo lavoro è vedere se il riconoscimento di superfici non lambertiane, da parte del modulo semantico, influenza la predizione della disparità migliorandola. Nell’ambito della stereo vision, gli elementi riflettenti e trasparenti risultano estremamente complessi da analizzare, ma restano tuttora oggetto di studio dati gli svariati settori di applicazione come la guida autonoma e la robotica.
Resumo:
Il seguente elaborato si prefigge l’obiettivo di fornire una panoramica completa ed esau- stiva sullo studio delle statistiche di fotoconteggio, ricavando i fondamentali risultati di natura teorica e al contempo illustrando le procedure di determinazione sperimentale. Il principale risultato conseguibile in tale ambito è l’inequivocabile dimostrazione della natura quantizzata della luce, rendendo definitivamente superato l’alternativo model- lo semiclassico, in cui l’ipotesi di quantizzazione è limitata all’interazione radiazione- rilevatore, mentre la luce viene considerata interamente trattabile come onda. Se infatti entrambi gli approcci forniscono previsioni in accordo con le osservazioni sperimentali per quanto riguarda sorgenti coerenti e termiche, che producono rispettivamente distri- buzioni Poissoniane o Super-Poissoniane, il secondo modello non è in grado di motivare in alcun modo l’esistenza delle distribuzioni Sub-Poissoniane, caratterizzate matemati- camente da una varianza inferiore al valor medio di conteggi ̄n. Il primo capitolo è dedicato a ricavare la forma delle statistiche di fotoconteggio basan- dosi sul modello a fotoni, riportando le più rilevanti dimostrazioni matematiche; il secondo capitolo ha invece l’obiettivo di analizzare i risultati forniti dal modello semi- classico, rivelando la perfetta compatibilità con quelli ottenuti nel capitolo precedente per quanto riguarda sorgenti di tipo classico; nel terzo capitolo si illustra una serie di esperimenti svolti presso il ”Laboratorio di Ottica Quantistica dell’Istituto Nazionale di Ottica-CNR”, nel polo scientifico di Sesto Fiorentino, realizzati con l’obiettivo di confermare la validità delle conclusioni di natura teorica esposte nei primi due capitoli; infine il quarto capitolo si prefigge lo scopo di dare un breve accenno alle distribuzioni di tipo Sub-Poissiano, attraverso una breve trattazione matematica e illustrando alcune modalità di osservazione sperimentale.
Resumo:
L'elaborato parte da una scheda di sviluppo commerciale per arrivare a realizzare una rete LoRaWAN comprensiva di End-Node, Gateway e Application Server. In maniera specifica, l'elaborato affronta il problema della progettazione di end-node a micropotenze. Dopo aver studiato e collaudato la piattaforma di sviluppo, è stata affrontata la problematica dell'ottimizzazione energetica a diversi livelli: scelta di componenti con correnti di perdita estremamente ridotte, tecniche di power gating temporizzato, comportamento adattativo del nodo, impostazione dei consumi del nodo mediante i server della rete. L'elaborato presenta infine il layout del PCB progettato, pronto per la fabbricazione, insieme a stime del tempo di vita dell'end-node in funzione della frequenza di trasmissione e della capacità delle batterie utilizzate.
Resumo:
Per lo scopo di questa tesi mi sono concentrata sull’analisi del doppiaggio della prima stagione della serie TV statunitense "How to Get Away with Murder". Ho scelto di soffermarmi in modo particolare sul doppiaggio delle espressioni tipiche del linguaggio giuridico americano, dello slang e del titolo. Il presente elaborato è composto di quattro capitoli. Il primo riguarda la trama, l’idea del produttore, le tematiche, il responso del pubblico e un breve riassunto di una video-recensione di un avvocato americano che analizza l’“accuratezza legale” della serie. Tutti noi italiani siamo abituati a vedere il sistema giudiziario americano così come raffigurato in TV: processo in tribunale in presenza di un giudice e di una giuria. Nel secondo capitolo, infatti, mi soffermerò proprio su questo aspetto e sulle differenze sostanziali che distinguono l’ordinamento americano e italiano. Il terzo capitolo riguarda il doppiaggio, mentre l’ultimo è l’analisi vera e propria del doppiaggio della serie. Il capitolo è suddiviso in altri sotto capitoli e ognuno di essi si sofferma su una categoria di elementi nello specifico che ho deciso di analizzare durante la visione della serie in italiano. La serie in Italia è stata distribuita con un titolo italiano, per cui, ho trovato anche interessante tentare di capire quali fattori abbiano portato i distributori a prendere questa scelta e quali effetti questo possa avere sugli spettatori. Il lavoro si è svolto nel seguente modo: prima ho guardato la serie in lingua originale, poi ho rivisto gli stessi episodi in italiano.
Resumo:
Creazione di un modello di calcolo che, una volta inseriti i dati di input del sistema, fornisca una serie di output utili a svolgere considerazioni di natura energetica ed economica per eseguire uno studio di fattibilità di una o più tecnologie a servizio di un'utenza industriale o civile. Applicazione di tale modello al fine di eseguire uno studio di fattibilità di un impianto di trigenerazione a servizio di un'industria ceramica, analizzando anche l'eventuale accoppiamento della trigenerazione con il fotovoltaico e l'accumulo. Analisi delle variazioni dei prezzi dell'energia elettrica e del gas sul sistema.
Resumo:
L'obiettivo principale di molti problemi industriali è tipicamente massimizzare i profitti o minimizzare costi o tempi di produzione. Questi problemi sono detti "di ottimizzazione" poiché bisogna ottimizzare determinati processi o attività attraverso decisioni che portino alla soluzione ottima del problema. Il giusto utilizzo di modelli matematici può condurre, tramite l'utilizzo di algoritmi esatti, alla soluzione ottima di un problema di questo tipo. Queste tecniche sono spesso basate su l'enumerazione completa di tutte le possibili soluzioni e ciò potrebbe pertanto richiedere una quantità di calcoli talmente elevata da renderle di fatto inutilizzabili. Per risolvere problemi di grandi dimensioni vengono quindi utilizzati i cosiddetti algoritmi euristici, i quali non assicurano di trovare la soluzione ottima del problema, ma promettono di trovarne una di buona qualità. In questa tesi vengono analizzati, sviluppati e confrontati entrambi gli approcci, attraverso l'analisi di un problema reale che richiede la pianificazione delle attività di un satellite.
Resumo:
Di fronte alla concorrenza globale, la sopravvivenza di un'azienda manifatturiera dipende sempre più da come essa può progettare, gestire e strutturare al meglio il proprio sistema di produzione per far fronte alla diversità dei prodotti, per migliorare l'affidabilità di consegna e anche per ridurre i costi. In questo contesto, le aziende manifatturiere utilizzano spesso sistemi di produzione diversi, in base a ciò che richiede il mercato. Molto in generale, i sistemi produttivi possono essere classificati in due categorie principali: make-to-stock (MTS) e make-to-order (MTO), in base alla politica di risposta alla domanda del mercato. Nel nuovo contesto competitivo le aziende si sono trovate a dover produrre costantemente prodotti specifici e di alta qualità con costi unitari bassi e livelli di servizio elevati (ossia, tempi di consegna brevi). È chiaro, dunque, che una delle principali decisioni strategiche da prendere da parte delle aziende sia quella relativa alla ripartizione dei prodotti in MTS/MTO, ovvero quale prodotto o famiglia di prodotti può essere fabbricato per essere stoccato a magazzino (MTS), quale può essere prodotto su ordinazione (MTO) e quale dovrebbe essere fabbricato in base alla politica di produzione ibrida MTS/MTO. Gli ultimi anni hanno mostrato una serie di cambiamenti nella politica di produzione delle aziende, che si stanno gradualmente spostando sempre più verso la modalità̀ di produzione ibrida MTS/MTO. In particolare, questo elaborato si concentrerà sul delayed product differentiation (DPD), una particolare strategia produttiva ibrida, e ne verrà proposto un modello decisionale basato sul funzionamento dell’Analytic Network Process (ANP) implementato attraverso il software Superdecisions.
Resumo:
Studio dei metodi di progettazione per lo sviluppo di eliche aeronautiche. Come caso di studio è stata scelta la progettazione di un’elica che ottimizzi le prestazioni del Risen, prodotto dalla Porto Aviation Group. Questo ultraleggero monta motore Rotax915IS, che eroga una potenza considerevolmente maggiore rispetto ai motori adottati in precedenza: sono state, quindi, progettate una serie di eliche in grado di convertire in maniera efficiente la coppia ricevuta in spinta nelle diverse fasi di volo del velivolo. E' incluso nella tesi uno studio di sensitività in cui è stato verificato come varia la spinta in funzione dei diversi parametri costruttivi dell'elica aeronautica. Lo sviluppo dell’elica avviene attraverso il seguente percorso: 1) definizione parametri di volo e funzionamento motore del velivolo a cui accoppiare l'elica, 2) studio delle prestazioni dell'aereo con le eliche già disponibili così da potere validare i calcoli, 3) stima delle prestazioni dell'aereo in seguito a variazioni delle caratteristiche geometriche della pala; 4) sintesi caratteristiche costruttive per ottenere una pala in grado di fornire prestazioni soddisfacenti in ogni fase del volo. Gli studi sono stati supportati da analisi su codici software commerciali, al fine di valutare l’influenza dei parametri costruttivi sulle prestazioni del velivolo a cui viene accoppiata l'elica. Lo studio ha condotto allo sviluppo di cinque pale, una delle quali presenta ottime prestazioni.
Resumo:
La relazione geologica avrà lo scopo di illustrare e spiegare i risultati del rilevamento geologico condotto in un areale di 3,4 km2 nella zona del Monte Castellazzo, immediatamente a NNE del Passo Rolle e circa 5 km a Nord di San Martino di Castrozza (TN). Il lavoro è stato svolto nel mese di giugno 2022, dal 18/06 al 25/06, e si inquadra nelle attività di Campo Geologico di fine triennio avente per obbiettivo, nel suo complesso, il rilevamento dell’intera area del Passo Rolle. In questo lavoro verranno evidenziate le principali caratteristiche geologico-strutturali dell’area in esame, ponendo maggior attenzione sull’individuazione e analisi delle singole unità litologiche cartografate. La relazione geologica accompagna la carta geologica (scala 1:7000) dell’areale di studio e la sezione geologica, ambedue in allegato, che mostrano l’andamento e la geometria dei corpi geologici con la profondità. Al termine del lavoro, come approfondimento, verrà descritta e caratterizzata la serie idrogeologica della zona in esame, andando ad individuare e descrivere i principali complessi idrogeologici presenti ed evidenziando le idrostrutture che possono condizionare la circolazione idrica sotterranea.