935 resultados para sistemi, RFID, distanza, lettura, supporto, metallico
Resumo:
A partire dagli anni ‘40, l'uso della traduzione automatica ha iniziato a rappresentare un soggetto fondamentale nella traduzione, costituendo ancora ad oggi il centro di numerose ricerche e studi. In seguito alla diffusione della tecnologia informatica e del World Wide Web, iniziarono a essere disponibili sistemi commerciali di traduzione automatica. In questo periodo, divennero comuni diversi software di traduzione automatica gratuiti, fino a quando, alla fine degli anni 2000, si assistette infine allo sviluppo di una nuova tecnologia di apprendimento automatico neurale, basata sul funzionamento della mente umana. Il presente lavoro si concentra sulla valutazione della qualità della traduzione automatica neurale attraverso l'analisi e il confronto di sette sistemi, ovvero Google, Systran, Prompt, Microsoft, Yandex, ModernMT e Deepl, impiegati nel settore finanziario per la coppia linguistica inglese-italiano. Il primo capitolo tratta la storia della traduzione automatica, fornendo una breve descrizione delle diverse architetture, dei loro ambiti di utilizzo e della valutazione dei sistemi. Il secondo capitolo introduce il concetto di post-editing insieme agli obiettivi e le problematiche che lo caratterizzano. Il terzo capitolo presenta il progetto Intento, seguito da una breve panoramica dei sistemi di traduzione automatica analizzati. Nel quarto capitolo viene delineato il dominio finanziario, concentrandosi sui diversi ambiti che si sono intersecati con esso nell’ambito dello studio svolto. Il quinto e ultimo capitolo riguarda l'analisi dei segmenti tradotti, preceduta dalla definizione dei parametri scelti per la valutazione. L'ultima parte del capitolo illustra una sintesi dei risultati ottenuti e alcune considerazioni finali.
Resumo:
Le apparecchiature elettriche isolate a gas per alta tensione stanno riscuotendo grande successo in particolare per la possibilità di ridurre le dimensioni delle sottostazioni. Sebbene si tratti di strutture meno complesse da realizzare rispetto ai cavi, la causa di guasto risulta prevalentemente imputabile ai difetti dell’isolamento. La diagnostica dei sistemi isolanti è maturata nella comprensione dei fenomeni elettromagnetici coinvolti e delle condizioni a contorno che differenziano i vari difetti, fonti di scariche parziali. Questa tesi affronta il tema delle scariche parziali negli interruttori isolati con gas Esa-Fluoruro di Zolfo. In particolare, propone le basi teoriche per sostenere l’analisi delle misure delle scariche parziali, soprattutto nel caso siano effettuate sul campo. Viene proposto un algoritmo utile ad esaminare le misure delle scariche parziali. Vengono implementati vari metodi grafici e statistici risultati dall’indagine bibliografica. Vengono proposti alcuni grafici a sostegno dell’identificazione di marcatori e indicatori della fisica dei fenomeni.
Resumo:
La legge n.92 del 20 agosto 2019 ha introdotto l'insegnamento dell'educazione civica nelle scuole, con un approccio fortemente interdisciplinare. Nell'elaborato viene proposto lo studio dei sistemi elettorali, con una visione trasversale fra la matematica e l'educazione civica, al fine di rendere consapevoli gli studenti riguardo al nesso fra voto e rappresentanza in democrazia. La scelta del sistema elettorale infatti influisce pesantemente sulla scelta degli organi rappresentanti, generando incongruenze e paradossi. Viene inoltre descritta un'attività didattica proposta ad alcune classi del triennio del liceo classico, presentando gli strumenti e le strategie didattiche utilizzate, volte a stimolare diversi canali cognitivi. L’attività proposta punta ad aumentare la consapevolezza dell’utilizzo della matematica nei sistemi elettorali e a stimolare l’interesse verso la materia. In conclusione dell’elaborato vengono analizzati i risultati di un breve questionario rilasciato agli studenti per valutare l’efficacia dell’attività didattica effettuata.
Resumo:
Il passaggio dalla concezione delle forze come azioni a distanza a quella che le vede come azioni che avvengono per contatto, attraverso un mezzo descrivibile con una teoria di campo, costituisce un punto di svolta importante nell'evoluzione della fisica. Da un'analisi storica e filosofica, emerge una molteplicità di aspetti che hanno contribuito a questo cambiamento. Rivestono un ruolo importante le concezioni filosofiche che caratterizzano un periodo storico, gli strumenti matematici, i modelli e le analogie. Questa molteplicità rende il passaggio da un paradigma newtoniano a uno maxwelliano un tema significativo per la didattica. L'obiettivo di questo lavoro di tesi è quello di costruire un percorso didattico indirizzato agli studenti del quarto anno di Liceo Scientifico attraverso i concetti principali dell'elettrostatica, vista come punto di congiunzione tra diversi paradigmi concettuali e tra differenti metodi di rappresentazione matematica. Le ricerche sull'uso della storia della fisica come mezzo per la didattica mettono in luce il parallelismo tra i profili concettuali degli studenti di diverse età con i profili newtoniano e maxwelliano, e attribuiscono le difficoltà nel passaggio da un profilo a un altro a una didattica che non evidenzia la necessità di questo cambiamento. Attraverso un'analisi storica dello sviluppo dell'elettrostatica ho dunque identificato alcuni punti significativi per favorire il cambiamento concettuale, dai quali sono partita per costruire un percorso che si compone di 3 unità in cui sono rese esplicite le motivazioni che portano da un'azione a distanza al concetto di campo e di azione tramite un mezzo. I concetti dell'elettrostatica vengono così trattati attraverso una molteplicità di rappresentazioni e facendo uso di analogie tratte dalla storia della fisica, in maniera coerente con le indicazioni Nazionali per i Licei Scientifici e con le ricerche sulla didattica della fisica che riguardano i diversi aspetti toccati.
Resumo:
Le equazioni alle derivate parziali lineari (PDE’s) hanno un ruolo centrale in molte applicazioni di tipo scientifico, ingegneristico, medico, finanziario e sociale. È necessario, per questo motivo, avere metodi robusti che permettano di approssimare soluzioni di classi di PDE’s. Nell’ambito dei problemi lineari ellittici stazionari, una delle procedure comunemente utilizzate consiste nel discretizzare l’equazione differenziale mediante l’approssimazione delle derivate con differenze finite nel dominio considerato, e risolvere il sistema lineare algebrico risultante. Lo scopo dell’elaborato è studiare la dipendenza della convergenza del metodo dei Gradienti Coniugati dal parametro di discretizzazione per problemi ellittici autoaggiunti. Studieremo inoltre accelerazioni del metodo di tipo “Operator preconditioning”, che permettono di rendere l’algoritmo indipendente da tale parametro di discretizzazione in termini di numero di iterazioni.
Resumo:
Nella presente tesi è discusso il fenomeno dell’ entanglement quantistico, che si manifesta come correlazione nei risultati delle misure di sistemi aperti, in precedenza localmente interagenti, indipendentemente da quella che è la loro distanza spaziale. Il celebre teorema di Bell esclude la possibilità che l’ entanglement possa essere descritto mediante una teoria di variabili nascoste locale. Si indaga allora l’ipotesi che particelle che si muovono a velocità super-luminali (tachioni), non vietate dalla Relatività, possano intervenire nella spiegazione fisica dell’ entanglement. In particolare, si presenta un’ interpretazione alternativa del noto paradosso di Tolman che riguarda i tachioni, tramite la quale è possibile ricostruire la sovrapposizione quantistica di stati della coppia entangled EPR, come associata a loop di tachioni scambiati tra i due sistemi.
Resumo:
In questo elaborato vengono analizzate differenti tecniche per la detection di jammer attivi e costanti in una comunicazione satellitare in uplink. Osservando un numero limitato di campioni ricevuti si vuole identificare la presenza di un jammer. A tal fine sono stati implementati i seguenti classificatori binari: support vector machine (SVM), multilayer perceptron (MLP), spectrum guarding e autoencoder. Questi algoritmi di apprendimento automatico dipendono dalle features che ricevono in ingresso, per questo motivo è stata posta particolare attenzione alla loro scelta. A tal fine, sono state confrontate le accuratezze ottenute dai detector addestrati utilizzando differenti tipologie di informazione come: i segnali grezzi nel tempo, le statistical features, le trasformate wavelet e lo spettro ciclico. I pattern prodotti dall’estrazione di queste features dai segnali satellitari possono avere dimensioni elevate, quindi, prima della detection, vengono utilizzati i seguenti algoritmi per la riduzione della dimensionalità: principal component analysis (PCA) e linear discriminant analysis (LDA). Lo scopo di tale processo non è quello di eliminare le features meno rilevanti, ma combinarle in modo da preservare al massimo l’informazione, evitando problemi di overfitting e underfitting. Le simulazioni numeriche effettuate hanno evidenziato come lo spettro ciclico sia in grado di fornire le features migliori per la detection producendo però pattern di dimensioni elevate, per questo motivo è stato necessario l’utilizzo di algoritmi di riduzione della dimensionalità. In particolare, l'algoritmo PCA è stato in grado di estrarre delle informazioni migliori rispetto a LDA, le cui accuratezze risentivano troppo del tipo di jammer utilizzato nella fase di addestramento. Infine, l’algoritmo che ha fornito le prestazioni migliori è stato il Multilayer Perceptron che ha richiesto tempi di addestramento contenuti e dei valori di accuratezza elevati.
Resumo:
Attraverso questa tesi si vuole mostrare il valore aggiunto che i sistemi di immagazzinamento automatico della merce possono offrire alle aziende, facendo un focus particolare sulle aziende manifatturiere. La scelta di approfondire questa tematica nasce dall’esperienza di tirocinio svolta all’interno di Automobili Lamborghini S.p.A. situata a Sant’Agata Bolognese (Bologna), nota in tutto il mondo per la produzione di Super Sport Cars. Partendo dall'introduzione dell'order picking e delle tipologie di magazzini esistenti, si passerà all'introduzione di algoritmi per il posizionamento dei codici all'interno di un magazzino. Una volta introdotto il problema dello stoccaggio dei codici di normaleria all'interno di un magazzino, verrà identificata la soluzione implementata in Automobili Lamborghini.
Resumo:
Negli ultimi anni si è sviluppato un crescente interesse per lo studio e il monitoraggio di fenomeni meteorologici estremi. In particolare, stanno aumentando osservazioni e testimonianze relative a manifestazioni temporalesche molto violente, spesso caratterizzate da grandine di notevole dimensione che rappresenta la causa principale di pericolo per le persone e di danni anche ingenti al comparto agricolo, infrastrutturale e alle automobili. Per questi motivi, in questo lavoro di tesi è stata presentata una nuova tecnica meteorologica denominata “Multi-sensor Approach for Satellite Hail Advection” (MASHA) che si basa sulla combinazione delle misure fornite dai satelliti geostazionari per trasportare l’informazione e da quelli in orbita polare per riconoscere le nubi grandinigene. I risultati della tecnica MASHA forniscono ogni cinque minuti su tutto il bacino del Mediterraneo la probabilità che la nube osservata abbia formato della grandine in un intervallo compreso tra 0 e 1. Le potenzialità del metodo MASHA riguardano soprattutto l’elevata risoluzione spaziale e temporale con la quale vengono riprodotti i sistemi grandinigeni, la capacità del modello di ricostruire i campi di grandine e l’evoluzione di questi sistemi anche in assenza di passaggi recenti dei satelliti polari. Per migliorare le performance della tecnica, è stato sviluppato un nuovo indice di severità chiamato Hail Severity Index (HSI) in grado di migliorare la localizzazione e la stima dell’intensità dei sistemi grandinigeni attraverso l’integrazione di nuove variabili: l’overshooting index, i fulmini e i dati radar. Le performance della tecnica MASHA e le potenzialità dell’indice HSI mostrate in questo lavoro di tesi, suggeriscono implementazioni operative a supporto di sistemi per il nowcasting di eventi temporaleschi particolarmente severi. Questo approccio, potrebbe essere molto efficace per fornire informazioni in tempo reale ai servizi meteorologici e nel contesto della protezione civile.
Resumo:
In questo elaborato viene discussa la dinamica dei sistemi collisionali, la quale non si riferisce alle effettive collisioni fisiche che possono verificarsi seppur raramente in campo astrofisico (Appendice A), ma piuttosto al ruolo dominante ricoperto dagli incontri gravitazionali ravvicinati tra coppie di stelle. Nel Capitolo 1 viene introdotto lo studio della dinamica stellare, viene riportata la definizione di sistema collisionale e la sua distinzione da sistema non collisionale, in cui i moti, invece, sono influenzati dalla forza gravitazionale esercitata da una omogenea distribuzione di massa. Viene accennato, inoltre, il fondamentale Teorema del Viriale. A seguire, nel Capitolo 2, viene proposto il problema dei due corpi, fondamentale per lo sviluppo del calcolo del tempo di rilassamento a due corpi, e viene confrontato quest'ultimo sia con il tempo dinamico che con il tempo di frizione dinamica. Infine, nel Capitolo 3 vengono esposti alcuni esempi di dinamica stellare in astrofisica, come l'evaporazione gravitazionale, il core collapse e la catastrofe gravotermica degli ammassi globulari.
Resumo:
La dinamica dei due corpi è un problema di meccanica celeste di grande rilevanza per l’astrofisica, permette di studiare l’interazione tra due masse puntiformi che si muovono sotto una mutua attrazione gravitazionale, descritta dalle leggi universali della gravi- tazione di Newton. Inoltre è l’unico problema riguardante la dinamica gravitazionale per il quale si ha una completa e generale soluzione analitica. Nel capitolo 1 vengono introdotti gli strumenti matematici e il formalismo alla base del problema dei due corpi, utile per lo studio dell’interazione gravitazionale tra due masse puntiformi; arrivando a ricavare anche le leggi di Keplero. Risulta immediato immaginare che i sistemi osservati nell’universo non siano strettamente formati da soli due corpi, bensì potrebbe capitare che il numero n di corpi sia tale che n > 2. Successivamente, nel capitolo 2, viene trattato un caso più generale del problema dei due corpi, il problema dei tre corpi. Come si può intuire in questo caso si estenderà l’analisi all’interazione gravitazionale di 3 corpi, trattando inizialmente il problema nel quale uno dei tre corpi ha massa trascurabile rispetto agli altri due, detto problema dei tre corpi circolare ristretto. A seguire si tratta il caso generale del problema dei tre corpi, in cui le masse sono tra loro confrontabili. Al contrario del problema dei due corpi quello dei tre corpi non ha una soluzione analitica, viene risolto numericamente. In conclusione, nel capitolo 3, si trattano le interazioni di stelle o altri corpi in sistemi binari o a tre corpi, con alcune applicazioni astrofisiche. Vengono messi in luce esempi riguardanti il problema dei due corpi in ammassi globulari e dei tre corpi nel sistema solare, trattando in questo caso l’effetto dell’interazione a più corpi sulla precessione del perielio di Mercurio.
Resumo:
La luce è il mezzo con cui ricaviamo informazioni sull'universo che studiamo ma per poter ottenere queste informazioni sono necessarie le strumentazioni di raccolta dati e sopra ogni cosa diviene fondamentale l'impianto teorico solidamente costruito attraverso i secoli accumulati dalla nostra disciplina. Nella prima parte una breve introduzione storica per poter capire come siamo arrivati alla modernità. Subito dopo formule e definizioni per avere il quadro completo sui 3 argomenti con le relative dimostrazioni e sopratutto cosa si ricava da tali dati.
Resumo:
Questo elaborato tratta lo studio e l'implementazione della modulazione Orthogonal Time Frequency Space (OTFS) in sistemi di tipo Joint Sensing and Communication (JSC), ossia sistemi in cui le funzionalità di comunicazione e "sensing" condividono lo stesso hardware e la stessa banda di frequenze. La modulazione OTFS è una recente tecnica di modulazione bidimensionale, progettata nel dominio delay-Doppler, che sta riscuotendo particolare interesse nel panorama delle telecomunicazioni in quanto portatrice di alcuni importanti vantaggi nei sistemi delle reti cellulari. Rispetto alle moderne modulazioni multi-portante, come l'OFDM, l'OTFS si dimostra essere in grado di offrire prestazioni migliori e più robuste in condizioni di connessioni ad alta velocità (High Mobility), con una maggiore efficienza spettrale, in quanto non prevede l'utilizzo di un prefisso ciclico per la gestione del problema dell'ISI. Un altro punto di forza importante della modulazione OTFS è quello di risultare particolarmente adatta e compatibile con le applicazioni di JSC, soprattutto grazie all'estrema robustezza a grandi spostamenti Doppler, e la possibilità di fare "sensing" raggiungendo distanze decisamente maggiori rispetto all'OFDM, grazie all'assenza del prefisso ciclico. Tutto questo però viene al costo di un notevole incremento del sistema, con tempi di esecuzione molto elevati. Dopo aver presentato il sistema OTFS in generale e in ambito JSC, in un particolare scenario, lo si è implementando in MATLAB sviluppando due versioni: una standard e una a complessità ridotta, in grado di raggiungere risoluzioni molto elevate in tempi di calcolo contenuti. Infine questo sistema, in grado di stimare i parametri radar di distanza e velocità radiale relativa, associati ad un certo target, è stato simulato e i risultati relativi alle performance sulla stima dei parametri, in termini di RMSE e CRLB, sono stati riportati e posti a confronto con quelli ottenuti nel caso OFDM, a parità di scenario.
Resumo:
Il presente elaborato propone un progetto di digitalizzazione e ottimizzazione del flusso informativo a supporto della gestione dei ricambi dell'azienda IMA S.P.A. In particolare, l'obiettivo principale è quello di rendere più efficiente e priva di sprechi la modalità di richiesta del prelievo dei componenti commerciali, che ad oggi risulta essere troppo fragile e onerosa. Essa infatti, viene eseguita attraverso la stampa di un buono di prelievo cartaceo, che costituisce il supporto all’informazione e l’input per dare il via all’attività di prelievo. La proposta sviluppata in questa tesi è quella di attuare un processo di dematerializzazione, eliminando il cartaceo a favore di una completa gestione dei dati a sistema. Per farlo è stata pensata una modifica al flusso attualmente esistente, attraverso l’implementazione di una nuova transazione sul software gestionale SAP, che consenta la creazione di una lista di ricambi da prelevare. Questa lista sarà il nuovo input necessario all’attivazione del picking nel magazzino centralizzato.
Resumo:
Siamo sempre stati abituati fin dal principio ad interagire con l’ambiente che ci circonda, utilizzando gli oggetti fisici presenti attorno a noi per soddisfare le nostre esigenze, ma se esistesse di più di questo? Se fosse possibile avere attorno a noi oggetti che non sono propriamente corpi fisici, ma che hanno un comportamento coerente con l’ambiente circostante e non venisse percepita la differenza tra essi e un vero e proprio oggetto? Ci si sta riferendo a quella che oggi viene chiamata Mixed Reality, una realtà mista resa visibile tramite appositi dispositivi, in cui è possibile interagire contemporaneamente con oggetti fisici e oggetti digitali che vengono chiamati ologrammi. Un aspetto fondamentale che riguarda questa tipologia di sistemi è sicuramente la collaborazione. In questa tesi viene esaminato il panorama delle tecnologie allo stato dell'arte che permettono di vivere esperienze di Collaborative Mixed Reality, ma soprattutto ci si concentra sulla progettazione di una vera e propria architettura in rete locale che consenta la realizzazione di un sistema condiviso. Successivamente all'applicazione di varie strategie vengono valutati i risultati ottenuti da rigorose misurazioni, per determinare scientificamente le prestazioni dell'architettura progettata e poter trarre delle conclusioni, considerando analogie e differenze rispetto ad altre possibili soluzioni.