76 resultados para Heaney, Seamus - Influssi classici
Resumo:
Tutti coloro che lavorano su appuntamento hanno una clientela da gestire. Per farlo, possono avvalersi di due opzioni: o utilizzano una buona parte del loro tempo per rispondere direttamente alle chiamate e ai messaggi dei clienti, oppure assumono una persona che si faccia carico personalmente dell’agenda del negozio, piuttosto che dello studio, a seconda dei casi. Gli aspetti negativi di queste due scelte non mancano. Nel primo caso, il diretto interessato può trovarsi interrotto da una chiamata nel pieno di un appuntamento. Il cliente lì presente deve attendere pazientemente che la conversazione finisca, ma la pazienza, giustamente, inizia a vacillare nel momento in cui le chiamate diventano numerose. Oltretutto la situazione può creare disagio al professionista in prima persona. In alcuni casi, inoltre, il cliente a casa è costretto ad aspettare tempi troppo lunghi prima di ricevere una risposta. Nel secondo caso, si ha un lavoro più fluido e senza interruzioni. Questo è ovviamente un fattore positivo, tuttavia l’assunzione di un addetto a rispondere al telefono, piuttosto che a messaggi o mail, ha un costo non indifferente. Analizzando i vari vantaggi e svantaggi dei metodi di prenotazione esistenti, è stata progettata una nuova soluzione che, tramite l'utilizzo dei bot e delle app di messaggistica, permette di prendere gli appuntamenti rimanendo il più fedeli possibile ai metodi classici, come i messaggi, ma con tutti i vantaggi dei metodi più tecnologici.
Resumo:
Al giorno d'oggi il reinforcement learning ha dimostrato di essere davvero molto efficace nel machine learning in svariati campi, come ad esempio i giochi, il riconoscimento vocale e molti altri. Perciò, abbiamo deciso di applicare il reinforcement learning ai problemi di allocazione, in quanto sono un campo di ricerca non ancora studiato con questa tecnica e perchè questi problemi racchiudono nella loro formulazione un vasto insieme di sotto-problemi con simili caratteristiche, per cui una soluzione per uno di essi si estende ad ognuno di questi sotto-problemi. In questo progetto abbiamo realizzato un applicativo chiamato Service Broker, il quale, attraverso il reinforcement learning, apprende come distribuire l'esecuzione di tasks su dei lavoratori asincroni e distribuiti. L'analogia è quella di un cloud data center, il quale possiede delle risorse interne - possibilmente distribuite nella server farm -, riceve dei tasks dai suoi clienti e li esegue su queste risorse. L'obiettivo dell'applicativo, e quindi del data center, è quello di allocare questi tasks in maniera da minimizzare il costo di esecuzione. Inoltre, al fine di testare gli agenti del reinforcement learning sviluppati è stato creato un environment, un simulatore, che permettesse di concentrarsi nello sviluppo dei componenti necessari agli agenti, invece che doversi anche occupare di eventuali aspetti implementativi necessari in un vero data center, come ad esempio la comunicazione con i vari nodi e i tempi di latenza di quest'ultima. I risultati ottenuti hanno dunque confermato la teoria studiata, riuscendo a ottenere prestazioni migliori di alcuni dei metodi classici per il task allocation.
Resumo:
Il presente elaborato si inserisce in un progetto di ricerca volto alla sostituzione del polistirene (PS) con il polietilene-tereftalato (PET) per la realizzazione di vasetti per yogurt, in formato singolo e multiplo, con l’obiettivo di ridurre l’impatto ambientale e allo stesso tempo aumentare le percentuali di riciclo del materiale utilizzato. La tenacità, caratteristica del PET, rende problematica l’incisione di quest’ultimo attraverso i classici sistemi meccanici utilizzati per il PS, per l’ottenimento di una rottura di tipo fragile in formati multipack. Al fine di ottenere una corretta incisione e una conseguente rottura fragile, per la separazione di due vasetti per yogurt adiacenti è stata focalizzata l’attenzione su tecnologie di taglio e incisione alternative a quella meccanica, più in particolare verso i sistemi efficienti, di taglio e incisione laser. In questo contesto, il progetto di tirocinio ha riguardato la caratterizzazione del processo di taglio e incisione laser di lastre di PET. In particolare, sono state effettuate analisi dinamometriche al fine di studiare il comportamento meccanico del PET e di confrontarlo con quello del PS, sono state condotte analisi di viscosità intrinseca e di spettroscopia infrarossa ATR-IR per verificare la presenza di un processo degradativo, in seguito al passaggio del laser sul materiale. Infine, sono stati caratterizzati alcuni prodotti di degradazione, appartenenti alla frazione pesante, mediante analisi NMR e ESI-MS, e sono stati eseguiti dei test di migrazione globale.
Resumo:
Questa tesi sostiene l'efficacia delle immagini satellitari per monitorare e valutare lo stato di conservazione dei siti archeologici soggetti a minacce antropiche, facendo riferimento alla situazione di crisi che è in atto in Siria a causa della guerra civile. Sono descritti nello specifico i vantaggi e i limiti del loro uso per riconoscere e seguire l’evoluzione dei saccheggi e delle altre forme di danno: in particolare vengono valutati i danni presenti su 68 tell pre-classici situati nel nord della Siria. È stato utilizzato un approccio foto interpretativo mediante il software QGIS, confrontando immagini satellitari provenienti da piattaforme open source quali Google, Bing, Esri con immagini d’archivio risalenti al 2010. Sono state effettuate diverse analisi volte a mappare la distribuzione dei danni sul territorio e stimarne l’incremento avvenuto tra il 2014 e il 2019, sottolineando l’impatto della militarizzazione e degli scavi clandestini. Sono state inoltre acquistate due immagini ad altissima risoluzione del satellite WorldView-2 per fare un riconoscimento semiautomatico dei cambiamenti avvenuti dal 2010 al 2020 su due dei tell appartenenti all’area di indagine, attraverso l’uso del software ENVI: dopo avere eseguito le opportune correzioni geometriche e atmosferiche è stata effettuata l’analisi delle componenti principali (PCA) ottenendo due immagini raster nelle quali vengono evidenziate le fosse di saccheggio e i danni compiuti sopra i due tell. Questo approccio ha consentito di individuare con maggiore chiarezza le caratteristiche che non erano altrettanto ben visibili nelle immagini rese disponibili dalle fonti open source. I risultati ottenuti dimostrano l’importanza delle immagini satellitari che rappresentano una fonte oggettiva di informazioni per avere una stima dei danni al suolo e possono aiutare le autorità competenti a prendere le misure necessarie per prevenire un'ulteriore diffusione del saccheggio e delle altre forme di danno.
Resumo:
Data la pervasività dell’elettronica nella vita moderna, sempre più interesse è stato posto nelle applicazioni di localizzazione. In ambienti indoor e outdoor, dove sono richieste precisioni dell’ordine delle decine di centimetri, i classici servizi GNSS non sono applicabili. Una tecnologia promettente è quella a banda ultra-larga (UWB), affermata recentemente sul mercato. Un’alternativa potrebbe essere l’utilizzo di sensori ottici con marker di riferimento, però la presenza di fumo e idrometeore presenti nell’ambiente potrebbero andare ad oscurare i marker, rendendo impossibile la localizzazione. Lo scopo della tesi è volto a studiare un sistema di localizzazione UWB, progettato dall’Università di Bologna, ora sviluppato e commercializzato, in un’applicazione robotica. In particolare, l’idea è quella di porre il sistema di localizzazione sopra un elemento mobile, per esempio nella parte terminale di un braccio meccanico, al fine di localizzare un oggetto dotato di nodo UWB, ricavando dinamicamente la posizione relativa tra il braccio e l’oggetto. La tesi si concentra inizialmente a livello teorico sulle caratteristiche delle principali tecnologie coinvolte, in particolare i sistemi UWB e il filtraggio Bayesiano, per poi trattare i limiti teorici della localizzazione, nei concetti di Cramér-Rao lower bound (CRLB) e geometric dilution of precision (GDOP). Da questi, si motiva l’utilizzo della tecnica two-way ranging (TWR) come principio di raccolta delle misure per la localizzazione, per poi ricavare le curve teoriche dell’errore di localizzazione, tenendo conto dei limiti geometrici imposti, utilizzate come riferimento per l’analisi dell’errore ottenuto con il sistema reale. La tecnologia viene testata in tre campagne di misura. Nelle prime due si osserva la presenza di un piano metallico parallelo alla direzione di propagazione, per esaminare gli effetti delle riflessioni sulla localizzazione, mentre nella terza campagna si considera la presenza di acqua dolce.
Resumo:
I contenuti principali trattati in questa tesi sono stati ispirati da due lavori presentati nel corso dello scorso decennio. Il primo lavoro, pubblicato nel 2013 da O. A. Manita e S. V. Shaposhnikov, presenta un nuovo risultato di esistenza di soluzioni, nel senso delle distribuzioni, che siano misure di probabilità per PDE paraboliche non lineari del primo e secondo ordine. Vengono fornite condizioni sufficienti per l’esistenza locale e globale di tale tipo di soluzioni per il problema di Cauchy associato a tali equazioni. Equazioni di tale tipo compaiono in maniera del tutto naturale in diversi ambiti applicativi, fra cui la finanza matematica. Nel lavoro presentato da G. Tataru e T. Fisher per Bloomberg nel 2010, viene proposto un modello stocastico per la modellazione del tasso di cambio di valuta estera al fine di prezzare dei particolari tipi di opzione, le opzioni a barriera, con le quali modelli più classici faticano maggiormente. Nella calibrazione di tale modello, per "fittare" il modello ai prezzi delle opzioni scambiate sul mercato, sorge il problema di risolvere un’equazione alle derivate parziali parabolica non lineare integro-differenziale e che dunque appartiene alla classe di PDE citata precedentemente.
Resumo:
In questo lavoro estendiamo concetti classici della geometria Riemanniana al fine di risolvere le equazioni di Maxwell sul gruppo delle permutazioni $S_3$. Cominciamo dando la strutture algebriche di base e la definizione di calcolo differenziale quantico con le principali proprietà. Generalizziamo poi concetti della geometria Riemanniana, quali la metrica e l'algebra esterna, al caso quantico. Tutto ciò viene poi applicato ai grafi dando la forma esplicita del calcolo differenziale quantico su $\mathbb{K}(V)$, della metrica e Laplaciano del secondo ordine e infine dell'algebra esterna. A questo punto, riscriviamo le equazioni di Maxwell in forma geometrica compatta usando gli operatori e concetti della geometria differenziale su varietà che abbiamo generalizzato in precedenza. In questo modo, considerando l'elettromagnetismo come teoria di gauge, possiamo risolvere le equazioni di Maxwell su gruppi finiti oltre che su varietà differenziabili. In particolare, noi le risolviamo su $S_3$.
Resumo:
Al contrario dei computer classici, i computer quantistici lavorano tramite le leggi della meccanica quantistica, e pertanto i qubit, ovvero l'unità base di informazione quantistica, possiedono proprietà estremamente interessanti di sovrapposizione ed entanglement. Queste proprietà squisitamente quantistiche sono alla base di innumerevoli algoritmi, i quali sono in molti casi più performanti delle loro controparti classiche. Obiettivo di questo lavoro di tesi è introdurre dal punto di vista teorico la logica computazionale quantistica e di riassumere brevemente una classe di tali algoritmi quantistici, ossia gli algoritmi di Quantum Phase Estimation, il cui scopo è stimare con precisione arbitraria gli autovalori di un dato operatore unitario. Questi algoritmi giocano un ruolo cruciale in vari ambiti della teoria dell'informazione quantistica e pertanto verranno presentati anche i risultati dell'implementazione degli algoritmi discussi sia su un simulatore che su un vero computer quantistico.
Resumo:
L’accrescimento è un fenomeno di assoluta rilevanza in astrofisica per il fatto di essere uno dei meccanismi di produzione energetica più efficienti conosciuti. Inoltre esso riveste un ruolo fondamentale sia nella caratterizzazione di oggetti astronomici noti come AGN, che per la descrizione di sistemi binari in cui una stella è nella condizione di trasferire parte della propria massa alla compagna. Nell’Introduzione è messa in risalto l’elevata efficienza del processo di accrescimento, soprattutto se confrontata con una delle reazioni termonucleari più celebri come la catena protone-protone. Sono poi mostrati alcuni aspetti qualitativi riguardanti gli AGN e il modo in cui alcune loro particolarità possono essere giustificate proprio grazie ai fenomeni di accrescimento. Il Capitolo 2 è dedicato alla determinazione della luminosità di Eddington, ovvero quel valore limite di luminosità che un corpo in accrescimento può raggiungere e che, se superato, determinata l’innescarsi di processi che portano l’accrescimento a rallentare. All’interno del Capitolo 3 è analizzato il modello di Bondi per l’accrescimento di un oggetto compatto immerso in una distribuzione infinita di gas. Il modello preso in considerazione rappresenta la versione più semplice del modello di Bondi, che fornisce una soluzione idrodinamica e che, tuttavia, presenta ipotesi molto stringenti. Per tale motivo a fine capitolo è stato aggiunto un primo sguardo al problema di Bondi in presenza di electron scattering, andando a vedere il modo in cui questo influenza i risultati classici precedentemente ottenuti. Infine, nel Capitolo 4 è introdotto il problema dell’accrescimento all’interno di sistemi binari in modo da mettere in luce i principali meccanismi che possono dare vita all’accrescimento e le ipotesi sotto le quali questi possono avvenire.
Resumo:
Il presente lavoro ha come oggetto la linguoculturologia, un orientamento scientifico nato negli ultimi decenni del XX secolo e largamente diffuso nel mondo accademico russo e post-sovietico, che studia il legame indissolubile tra lingua e visione del mondo. Le origini della linguoculturologia sono da ricercare nel pensiero di Humboldt e nel concetto di relativismo linguistico presentato dagli studiosi Edward Sapir e Benjamin Whorf, esposti nel primo capitolo dell’elaborato. Il primo capitolo si presenta quindi come una panoramica dell’evoluzione di questa disciplina, fino alla sua affermazione e la presentazione di uno dei suoi concetti principali, quello di carattere nazionale, inteso come le caratteristiche, i tratti del carattere e la visione del mondo comune alle persone appartenenti ad una stessa comunità. Come sostiene la linguista Svetlana Ter-Minasova, l’esistenza del carattere nazionale è attestata da alcune fonti, e cioè le barzellette, i classici della letteratura nazionale, il folclore e la lingua nazionale. Proprio quest’ultima è la più importante ed è il tema centrale del secondo capitolo, dove ho analizzato alcune delle parole chiave della lingua russa che ne riflettono la mentalità. A tal proposito il terzo e ultimo capitolo è dedicato alla proposta di traduzione di un saggio intitolato “È possibile comprendere la cultura russa attraverso le parole chiave della lingua russa?” del linguista russo A. D. Šmelëv.
Resumo:
Con le crescenti esigenze di personalizzazione, la capacità di prevedere con precisione la domanda di un numero sempre maggiore di prodotti è diventata una delle caratteristiche fondamentali che l’azienda manufatturiera moderna deve possedere. L’esigenza dunque di fornire una gamma di prodotti sempre più vasta, contenendo i costi associati alla realizzazione e alla giacenza dei prodotti finiti e contemporaneamente riducendo al minimo i tempi di risposta alla domanda, non viene pienamente soddisfatta da nessuna delle due politiche produttive che rappresentano i due approcci più classici, ossia le due strategie Make-To-Stock (MTS) e Make-To-Order (MTO). Per rispondere a questa esigenza di personalizzazione è stata proposta un’ulteriore politica produttiva nota come Delayed Product Differentiation (DPD) basata sul concetto delle piattaforme di prodotto, ossia delle strutture comuni a più prodotti diversi che, tramite l’aggiunta dei componenti, permettono di ottenere la gamma di prodotti finali richiesti. Il seguente lavoro di tesi si pone lo scopo di studiare, tramite un algoritmo ideato e sviluppato con l’ausilio del linguaggio di programmazione di Matlab, il caso di un sistema che già adotta l’approccio DPD per riuscire a trovare una soluzione al problema di estendere il catalogo iniziale degli articoli presenti, avendo una lista di prodotti nuovi da analizzare e dovendo scegliere quali aggiungere e quali invece eliminare, stabilendo come modificare le piattaforme per l’aggiunta di essi.
Resumo:
I dati sono una risorsa di valore inestimabile per tutte le organizzazioni. Queste informazioni vanno da una parte gestite tramite i classici sistemi operazionali, dall’altra parte analizzate per ottenere approfondimenti che possano guidare le scelte di business. Uno degli strumenti fondamentali a supporto delle scelte di business è il data warehouse. Questo elaborato è il frutto di un percorso di tirocinio svolto con l'azienda Injenia S.r.l. Il focus del percorso era rivolto all'ottimizzazione di un data warehouse che l'azienda vende come modulo aggiuntivo di un software di nome Interacta. Questo data warehouse, Interacta Analytics, ha espresso nel tempo notevoli criticità architetturali e di performance. L’architettura attualmente usata per la creazione e la gestione dei dati all'interno di Interacta Analytics utilizza un approccio batch, pertanto, l’obiettivo cardine dello studio è quello di trovare soluzioni alternative batch che garantiscano un risparmio sia in termini economici che di tempo, esplorando anche la possibilità di una transizione ad un’architettura streaming. Gli strumenti da utilizzare in questa ricerca dovevano inoltre mantenersi in linea con le tecnologie utilizzate per Interacta, ossia i servizi della Google Cloud Platform. Dopo una breve dissertazione sul background teorico di questa area tematica, l'elaborato si concentra sul funzionamento del software principale e sulla struttura logica del modulo di analisi. Infine, si espone il lavoro sperimentale, innanzitutto proponendo un'analisi delle criticità principali del sistema as-is, dopodiché ipotizzando e valutando quattro ipotesi migliorative batch e due streaming. Queste, come viene espresso nelle conclusioni della ricerca, migliorano di molto le performance del sistema di analisi in termini di tempistiche di elaborazione, di costo totale e di semplicità dell'architettura, in particolare grazie all'utilizzo dei servizi serverless con container e FaaS della piattaforma cloud di Google.
Resumo:
Il mercato azionario è sempre stato caso di studio, soprattutto per la sua complessità, e la difficolta di predirne il comportamento. I fattori in gioco sono davvero tanti, dalla politica ai problemi aziendali stessi. Pur sapendo che il mondo finanziario è un mondo complicato, permette però possibilità di guadagno elevate. Nel documento vengono descritti alcuni approcci utilizzati per eseguire delle predizioni, dai metodi più classici come la regressione, fino all'utilizzo di reti neurali. Vengono infatti descritti tre modelli che sfruttano le caratteristiche della LSTM, e un modello che sfrutta l'architettura Transformer, proposto recentemente,
Resumo:
L’introduzione dei materiali compositi all’interno dell’ambiente industriale ha modificato l’idea di progettazione delle strutture, permettendo il raggiungimento di eccellenti prestazioni difficilmente ottenibili con materiali classici. Grazie all’uso dei compositi si sono ottenute elevata resistenza e leggerezza, caratteristiche di grande interesse nell’industria aerospaziale, delle costruzioni civili e soprattutto del settore automobilistico. Il materiale composito viene considerato oggigiorno un materiale innovativo del quale non si conoscono in modo esaustivo tutte le caratteristiche. Da questa premessa è nata la campagna sperimentale di questa tesi, il cui scopo è la definizione della sequenza di laminazione per la realizzazione della molla posteriore per la sospensione del prototipo da competizione Emilia5, del team Onda Solare. Si è ricercata la configurazione che conferisse una rigidità flessionale maggiore rispetto a quelle campionate. Si è proceduto, quindi, allo studio delle possibili sequenze di laminazione con cui realizzare la molla e sono stati creati i provini utilizzando CFRP unidirezionale, materiale caratterizzato da un’elevata resistenza lungo l’asse longitudinale. I 5 provini realizzati si differenziano principalmente per le metodologie di sovrapposizione delle lamine contigue e per i materiali utilizzati. Sui provini realizzati è stata eseguita una caratterizzazione mediante prova di flessione in tre punti, dalla quale sono stati ricavati i dati necessari alla successiva analisi delle proprietà. Infine, con i risultati ottenuti si è proceduto alla determinazione della sequenza di laminazione ottimale per la realizzazione del prototipo.
Resumo:
In questo lavoro si studierà un nuovo sistema di consegna merci, denominato crowd-shipping. Questo si propone come soluzione per il trasporto della merce a domicilio, soprattutto per quanto riguarda l’ultimo miglio, con la quale si intendono le consegne che vengono effettuate all’interno dei centri urbani. È una soluzione recente che prevede di appoggiare ai corrieri tradizionali delle persone comuni, definiti corrieri occasionali (OD, Occasional Drivers). Questi ultimi, percorrendo un tratto di strada per motivi personali, sono disposti a consegnare la merce ai destinatari finali effettuando delle deviazioni al loro tragitto originario, in cambio di un compenso. Dopo aver studiato la situazione attuale dell’E-commerce e dello sviluppo delle Sharing Economy, dopo aver appreso il funzionamento di questo nuovo tipo di soluzione logistica, verrà presentato un modello matematico di programmazione lineare per le consegne last mile della merce in crowd-shipping. Questo modello verrà testato nel contesto urbano di Bologna e prevedrà due livelli di consegna rappresentati in primis dai corrieri tradizionali e in secondo luogo dai corrieri occasionali. Modalità possibile grazie all’utilizzo di armadietti automatici come depositi intermedi; si avranno, infatti, dei corrieri classici che riforniscono gli armadietti e dei corrieri occasionali che prelevano la merce dagli armadietti e la consegnano ai destinatari finali. Il modello sarà implementato in scenari diversi, con un differente numero di attori coinvolti, diverse ricompense per gli OD e diverse tipologie di veicoli, più o meno inquinanti. Questo ultimo punto ci anticipa che questa modalità di consegne può portare benefici importanti anche a livello ambientale; e in un mondo dove i cambiamenti atmosferici dovuti all’inquinamento sono sempre più devastanti, il crowd-shipping può portare a benefici concreti. Benefici che si sono dimostrati anche economici, sia per le aziende di spedizioni, sia per i clienti finali.