446 resultados para Nuove Attribuzioni


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si basa sull’esperienza di tirocinio effettuata presso un’Azienda italiana che opera nel settore della lavorazione plastica e produce contenitori. L’Azienda, a seguito di un’innovazione su tutta la linea di prodotto, ha da poco preso la decisione di investire nell’inserimento di due nuove presse per lo stampaggio e nella realizzazione di un nuovo impianto di assemblaggio automatizzato. Questi verranno inseriti all’interno dell’attuale stabilimento ed andranno ad aumentare la capacità produttiva. Se da un lato ci sono grandi vantaggi in ciò, dall’altro va analizzato il contorno. In particolare: Come va ad impattare l’inserimento di questi elementi nelle logiche aziendali? Come cambiano i flussi di materiale all’interno dello stabilimento? Sarà sufficiente lo spazio attuale per lo stoccaggio dei semilavorati? Poste queste domande, l’obiettivo dell’elaborato è di rispondervi, attraverso l’analisi delle principali attività logistiche dell’Azienda, focalizzando l’attenzione sul layout attuale del reparto magazzino semilavorati e dei flussi di materiale. L’analisi del magazzino nella situazione As Is evidenzia una serie di criticità. Il problema principale è di definire l’adeguato layout del magazzino, che consente un utilizzo ottimale della superficie a disposizione, in modo da garantire l’efficienza e l’efficacia delle operazioni che ivi si svolgono. L’analisi ha condotto alla progettazione di un nuovo layout e di una nuova politica di allocazione dei materiali. Infine, viene effettuata un’attenta analisi dei flussi logistici, ed in particolare delle movimentazioni di materiale, sviluppata attraverso il software simulativo AutoMod. Quindi, vengono simulati degli ipotetici scenari, successivi all’inserimento del nuovo impianto di assemblaggio, per valutare le criticità che potrebbe dover affrontare l’Azienda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le avventure di Pinocchio. Storia di un burattino, il celebre romanzo di Collodi del 1883, è considerato essere la seconda opera più tradotta al mondo e la prima in Italia. Esistono, però, diverse versioni dello stesso racconto che non sono dovute soltanto alla traduzione interlinguistica, ma anche a quella intralinguistica, intesa come l’adattamento e la riscrittura a partire dalla stessa lingua. Questo fenomeno prende il nome di “pinocchiate”, termine che designa tutte quelle storie che traggono ispirazione dal romanzo di Collodi, adattandolo ad un diverso contesto socioculturale e non prettamente linguistico. In particolare, durante il Ventennio fascista, la storia di Pinocchio è stata rivisitata al fine di veicolare i valori morali e i modi di comportamento della propaganda del periodo in questione. Il presente elaborato si propone di analizzare l’adattamento della storia di Pinocchio nel fascismo come strumento di manipolazione ideologica. Partendo dalle caratteristiche del romanzo di Collodi, nel primo capitolo si analizzano gli elementi che hanno spinto gli autori nel fascismo a scegliere il personaggio di Pinocchio come veicolo della propaganda e si introduce anche il ruolo svolto dalla letteratura per l’infanzia nel Ventennio. Il secondo capitolo si concentra nel dettaglio sull’analisi delle quattro “pinocchiate” fasciste raccolte da Luciano Curreri in Pinocchio in camicia nera (2011): Avventure e spedizioni punitive di Pinocchio Fascista di Giuseppe Petrai (1923); Pinocchio fra i Balilla. Nuove monellerie del celebre burattino e suo ravvedimento di Cirillo Schizzo (1927); Pinocchio istruttore del Negus, anonimo (1939) e Il viaggio di Pinocchio di Ciapo (1944).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato finale ha lo scopo di illustrare tutti i parametri necessari alla progettazione di un “buon” impianto di illuminazione stradale, dotato di tutte le nuove tecnologie, per un maggior risparmio energetico incentrato alla valorizzazione e riqualificazione urbana. L’illuminazione pubblica negli ultimi decenni ha ricoperto un’importanza sempre maggiore all’interno della città e del territorio aumentando in modo esponenziale la presenza di corpi illuminanti e formando spesso una vera e propria macchia di luce durante la notte. L’implementazione degli apparecchi di illuminazione ha portato ad una maggiore sicurezza e, a volte, un maggiore comfort nelle zone cittadine, ma anche un notevole aumento di costi energetici a carico delle amministrazioni comunali. Pertanto, alla luce degli ultimi mesi, è necessario incrementare i servizi tecnologici basati sull’efficientamento energetico degli impianti, in particolare, adottando sempre di più la sorgente a LED e sistemi di riduzione del flusso luminoso, in sostituzione alle lampade obsolete esistenti con un basso rendimento energetico. Con lo sviluppo del traffico veicolare degli ultimi anni, l’illuminazione urbana ha modificato il suo aspetto nelle città, concentrandosi sul rispetto dei valori prescritti per consentire una maggiore sicurezza e scorrevolezza del traffico motorizzato durante le ore notturne a discapito della valorizzazione urbana. Infatti, le statistiche hanno mostrato che il tasso degli incidenti notturni, ossia il rapporto tra gli incidenti e il numero di veicoli in circolazione, è più elevato rispetto agli incidenti durante le ore diurne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il TinyMachineLearning (TinyML) è un campo di ricerca nato recentemente che si inserisce nel contesto dell’Internet delle cose (IoT). Mentre l’idea tradizionale dell’IoT era che i dati venissero inviati da un dispositivo locale a delle infrastrutture cloud per l’elaborazione, il paradigma TinyML d’altra parte, propone di integrare meccanismi basati sul Machine Learning direttamente all’interno di piccoli oggetti alimentati da microcontrollori (MCU ). Ciò apre la strada allo sviluppo di nuove applicazioni e servizi che non richiedono quindi l’onnipresente supporto di elaborazione dal cloud, che, come comporta nella maggior parte dei casi, consumi elevati di energia e rischi legati alla sicurezza dei dati e alla privacy. In questo lavoro sono stati svolti diversi esperimenti cercando di identificare le sfide e le opportunità correlate al TinyML. Nello specifico, vengono valutate e analizzate le prestazioni di alcuni algoritmi di ML integrati in una scheda Arduino Nano 33 BLE Sense, attraverso un framework TinyML. Queste valutazioni sono state effettuate conducendo cinque diversi macro esperimenti, ovvero riconoscimento di Colori, di Frequenze, di Vibrazioni, di Parole chiave e di Gesti. In ogni esperimento, oltre a valutare le metriche relative alla bontà dei classificatori, sono stati analizzati l’occupazione di memoria e il tasso di inferenza (tempo di predizione). I dati utilizzati per addestrare i classificatori sono stati raccolti direttamente con i sensori di Arduino Nano. I risultati mostrano che il TinyML può essere assolutamente utilizzato per discriminare correttamente tra diverse gamme di suoni, colori, modelli di vibrazioni, parole chiave e gesti aprendo la strada allo sviluppo di nuove promettenti applicazioni sostenibili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'evoluzione di nuove tecnologie e la nascita di nuove tecniche di pagamento digitale, oltre che migliorare l'esperienza del cliente rendendo più semplice effettuare transazioni, ha portato con sè anche dei rischi per gli utilizzatori. L'elaborato vuole analizzare la sicurezza e le tecniche crittografiche utilizzate nei principali metodi di pagamento digitale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'inquinamento è un pensiero costante nel ventunesimo secolo. Ogni anno, i ricercatori cercano di trovare nuove metodologie e tecnologie per controllarlo e ridurlo. Per questo motivo l’Università di Bologna ha avviato svariati progetti per contrastare le problematiche ambientali. Una delle iniziative è AlmaBike. Sono biciclette che vengono assegnate nella forma di comodato gratuito al personale universitario e agli studenti. Nell'ultimo periodo, 50 AlmaBike sono state dotate di un pacchetto sensori in grado di rilevare posizione GPS, la qualità dell’aria, il rumore e alcuni parametri ambientali. Gli obiettivi perseguiti sono: sperimentare un sistema che permetta la misurazione di dati in merito alla qualità ambientale del comune di Bologna e misurare la rilevanza della consapevolezza della qualità dell’aria nella scelta di percorsi da parte di un utente, ad esempio casa-lavoro. L’obiettivo di questa tesi è quello di creare un applicativo che permetta la fruizione dei dati raccolti dai vari sensori attraverso l’uso di tecniche di Data Visualization. I dati vengono elaborati e organizzati con lo scopo di permetterne la comprensione anche ad utenti inesperti. La tesi è suddivisa in tre capitoli: nel primo capitolo sono stati approfonditi i concetti inerenti alla sostenibilità riprendendo quanto detto a proposito degli obiettivi dell'Agenda 2030, facendo anche una breve introduzione sul concetto di IoT e sensori; nel secondo capitolo vengono presentate le tecnologie utilizzate per la realizzazione dell’applicativo tra cui: Docker, MySQL, Angular, Typescript, Golang; nel terzo capitolo viene mostrata nel dettaglio l'applicazione creata: dalle scelte progettuali, fino ad arrivare al risultato finale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato ha come oggetto un esempio di attualizzazione della sottotitolazione di Todo sobre mi madre, uno dei film più acclamati di Pedro Almodóvar. È noto che il cinema del regista spagnolo ha caratteristiche proprie, tra le quali la delineazione di personaggi fuori dagli schemi e tematiche di grande interesse quali, l’amicizia, la sessualità e la transessualità; quest’ultima ha quasi sempre come conseguenza l’emarginazione sociale. Un tratto fondamentale della scrittura e della regia di Almodóvar è dato dal ruolo del linguaggio e dello humour, elementi che rendono complessa la trasposizione dei dialoghi nei sottotitoli. Queste caratteristiche si ritrovano anche nel film oggetto dell’analisi, Todo sobre mi madre. Più specificatamente, questa tesi ha come scopo quello di comparare due versioni di sottotitoli: la prima del DVD del 1999 e la seconda realizzata e pensata per la piattaforma streaming Amazon Prime Video. Per fare questo, nel primo capitolo si propone una delineazione della trama, delle tematiche e dei personaggi del film e nel secondo si presentano le principali tecniche applicate nella sottotitolazione professionale, nonché le nuove linee guida della piattaforma Prime. Infine, si comparano alcune scene topiche del film in tabella sinottica composta dallo script originale e dalle due versioni italiane. Mettere le due traduzioni a confronto permette di evidenziare i punti in comune e le differenze, riflettere sulle ragioni che hanno portato i due team di traduttori a fare determinate scelte, tenendo in considerazione i diversi parametri spaziali e temporali e il contesto socioculturale nel quale esse sono state realizzate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, a causa degli enormi progressi dell’informatica e della sempre crescente quantità di dati generati, si è sentito sempre più il bisogno di trovare nuove tecniche, approcci e algoritmi per la ricerca dei dati. Infatti, la quantità di informazioni da memorizzare è diventata tale che ormai si sente sempre più spesso parlare di "Big Data". Questo nuovo scenario ha reso sempre più inefficaci gli approcci tradizionali alla ricerca di dati. Recentemente sono state quindi proposte nuove tecniche di ricerca, come ad esempio le ricerche Nearest Neighbor. In questo elaborato sono analizzate le prestazioni della ricerca di vicini in uno spazio vettoriale utilizzando come sistema di data storage Elasticsearch su un’infrastruttura cloud. In particolare, sono stati analizzati e messi a confronto i tempi di ricerca delle ricerche Nearest Neighbor esatte e approssimate, valutando anche la perdita di precisione nel caso di ricerche approssimate, utilizzando due diverse metriche di distanza: la similarità coseno e il prodotto scalare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il crescente numero di attacchi condotti contro sistemi e servizi informatici richiede nuove strategie per la cybersicurezza. In questa tesi si prende in considerazione uno degli approcci più moderni per questa attività, basato su architetture Zero Trust, che deperimetrizzano i sistemi e mirano a verificare ogni tentativo di accesso alle risorse indipendentemente dalla provenienza locale o remota della richiesta. In tale ambito, la tesi propone una nuova forma di microsegmentazione agent-based basata su overlay network, con l'obiettivo di migliorare la scalabilità e la robustezza delle soluzioni esistenti, ad oggi messe in secondo piano in favore della facilità di configurazione. Una consistente serie di test dimostra che l'approccio descritto, attuabile in molteplici tipologie di sistemi cloud, è in grado di garantire, oltre alla sicurezza, scalabilità al crescere dei nodi partecipanti, robustezza evitando punti unici di fallimento e semplicità di configurazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La produzione additiva è una tecnologia innovativa completamente rivoluzionaria. La sua tecnica di costruzione layer by layer a partire da un file digitale consente la progettazione di componenti più complessi e ottimizzati, favorendo la stampa 3D su richiesta. La produzione additiva è potenzialmente in grado di offrire numerosi vantaggi sul tema della sostenibilità, rappresentati dall’utilizzo più efficiente delle risorse, dalla vita estesa dei prodotti e dalle nuove configurazioni delle catene di valore. L’ importanza di determinare gli impatti che tale processo genera lungo il suo ciclo di vita, ha portato ad una revisione della letteratura su tale argomento. In particolare, la mancanza di dati e modelli ha focalizzato l’attenzione su studi LCA di specifici processi. Grazie a tale strumento è stato possibile determinare l’influenza di diversi materiali, parametri di processo e scenari di utilizzo. Infine, viene mostrato quanto sia significativo l’impatto sociale che è in grado di generare la produzione additiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno degli obiettivi più ambizioni e interessanti dell'informatica, specialmente nel campo dell'intelligenza artificiale, consiste nel raggiungere la capacità di far ragionare un computer in modo simile a come farebbe un essere umano. I più recenti successi nell'ambito delle reti neurali profonde, specialmente nel campo dell'elaborazione del testo in linguaggio naturale, hanno incentivato lo studio di nuove tecniche per affrontare tale problema, a cominciare dal ragionamento deduttivo, la forma più semplice e lineare di ragionamento logico. La domanda fondamentale alla base di questa tesi è infatti la seguente: in che modo una rete neurale basata sull'architettura Transformer può essere impiegata per avanzare lo stato dell'arte nell'ambito del ragionamento deduttivo in linguaggio naturale? Nella prima parte di questo lavoro presento uno studio approfondito di alcune tecnologie recenti che hanno affrontato questo problema con intuizioni vincenti. Da questa analisi emerge come particolarmente efficace l'integrazione delle reti neurali con tecniche simboliche più tradizionali. Nella seconda parte propongo un focus sull'architettura ProofWriter, che ha il pregio di essere relativamente semplice e intuitiva pur presentando prestazioni in linea con quelle dei concorrenti. Questo approfondimento mette in luce la capacità dei modelli T5, con il supporto del framework HuggingFace, di produrre più risposte alternative, tra cui è poi possibile cercare esternamente quella corretta. Nella terza e ultima parte fornisco un prototipo che mostra come si può impiegare tale tecnica per arricchire i sistemi tipo ProofWriter con approcci simbolici basati su nozioni linguistiche, conoscenze specifiche sul dominio applicativo o semplice buonsenso. Ciò che ne risulta è un significativo miglioramento dell'accuratezza rispetto al ProofWriter originale, ma soprattutto la dimostrazione che è possibile sfruttare tale capacità dei modelli T5 per migliorarne le prestazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le recenti restrizioni, che sono state imposte negli ultimi anni, in termini di emissioni hanno dato modo di portare innovazioni tecnologiche nel campo automotive. In particolare, è stata fatta molta strada nel campo dei sistemi di propulsione con lo scopo di ridurre gli inquinanti dovuti ai motori termici tramite l’utilizzo di veicoli ibridi ed elettrici. Oltre a questo, è cresciuta la ricerca anche per tematiche quali: nuove strategie di iniezione, nuovi tipi di combustibile e di motori e analisi più dettagliate dei processi di combustione. Queste innovazioni sono andate di pari passo con uno sviluppo tecnologico riguardante il controllo elettronico presente nel veicolo, il quale permette una maggiore precisione rispetto a quello meccanico. Al fine migliorare l’accuratezza del controllo elettronico è quindi fondamentale l’utilizzo dei segnali provenienti dai sensori, in modo tale da poter individuare e correggere eventuali problemi. Questo progetto ha infatti l’obiettivo di sviluppare strategie per l’analisi e il trattamento di una grande mole di dati, in modo tale da avere un controllo preciso ed automatizzato in modo tale da rendere la procedura meno soggetta ad errori e più veloce. Nello specifico il progetto di tesi è stato incentrato sull’implementazione di nuovi trigger, i quali hanno lo scopo di valutare i segnali in modo tale che non siano presenti problemi per la calibrazione del veicolo. In particolare, sono stati implementati trigger riguardanti il misfire e il controllo dei componenti di un veicolo ibrido, come per esempio il BSG e la batteria a 48V. Il tool fornisce quindi la possibilità di essere sempre aggiornato, ma anche di restituire risultati sempre più precisi potendo aumentare il numero delle funzioni e delle condizioni in essi presenti, con la possibilità, un giorno, di poter realizzare a bordo l’intero processo di calibrazione del motore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Molti edifici realizzati negli anni ‘80-‘90 sono caratterizzati da impianti con caldaie autonome e nell’ambito degli interventi di riqualificazione energetica solo raramente vengono inserite delle pompe di calore a causa della temperatura di funzionamento dell’impianto, che spesso deve essere mantenuta elevata per i sistemi di emissione a radiatori. Tuttavia la riduzione dei carichi termici dovuti all'isolamento degli edifici consente di utilizzare i terminali esistenti facendoli lavorare a bassa temperatura, con temperature medie di 45-50°C. Obiettivo principale della tesi è quindi la valutazione della fattibilità e dei vantaggi energetici nell’ambito della sostituzione di un sistema di riscaldamento autonomo a gas con un sistema a pompa di calore. Viene preso in esame un edificio condominiale formato da 47 alloggi sito a San Lazzaro di Savena e in particolare verrà valutata la fattibilità di inserire un impianto centralizzato a pompa di calore per ogni corpo scala di cui è composto l’edificio, alimentando l’impianto con pannelli fotovoltaici installati in copertura. Per valutare i vantaggi energetici è stato utilizzato il software di simulazione dinamica Design Builder che consente di analizzare i fabbisogni energetici e la produzione di energia con step orario. Il modello dinamico permette anche di studiare le strategie d’involucro più opportune per diminuire il fabbisogno energetico e poter far lavorare la pompa di calore con i radiatori esistenti a bassa temperatura. I risultati attesi dal lavoro sono molteplici: in primo luogo verificare che la scelta dell’introduzione della pompa di calore consenta all'edificio di ridurre i consumi di energia primaria da fonti non rinnovabili, con lo scopo di portare l’edificio ad una richiesta di quasi zero energia (NZEB) in linea con le nuove normative europee e nazionali; in secondo luogo che l’utilizzo della simulazione oraria consenta di valutare il matching reale tra produzione e consumo di energia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Intelligenza Artificiale (IA), sin dalla sua introduzione, si è occupata dei giochi, ponendo l’attenzione a quelli detti a informazione perfetta e a somma zero e sequenziali (Tris, Scacchi e Forza4). Dalla Teoria dei Giochi è derivato il modello Minimax, che sfrutta l'albero di gioco per effettuare una ricerca in profondità allo scopo di minimizzare la massima perdita possibile per individuare la mossa migliore da giocare. Tuttavia, il limite di tale algoritmo risiede nel tempo necessario al calcolo (per alberi profondi e di grandi dimensioni) che, in alcuni casi, può essere considerevole. Per mitigare tale problema, è stato introdotta la proposta Alpha-Beta, che attua delle potature sull’albero di gioco grazie l’introduzione di due nuove variabili dette, appunto, alpha e beta. Tale approccio è stato ulteriormente migliorato ricorrendo all’utilizzo del concetto di funzione euristica e introducendo un limite di profondità al quale fermare la ricorsione del modello Alpha-Beta. Tale limite, tuttavia, determina il problema dell’effetto orizzonte, legato al fatto che fermarsi a una profondità intermedia dell’albero può portare l’algoritmo a non vedere delle alcune mosse migliori che possono situarsi nel sotto albero del nodo a cui si ferma la ricerca, appunto l’orizzonte. Ulteriori accorgimenti, come l'algoritmo ad approfondimento iterativo (Iterative Deepening) e il salvataggio degli stati di gioco in una tabella hash, possono ridurre in modo significativo il tempo di calcolo. Partendo da questi studi, sono stati sviluppati degli agenti software per ConnectX, un gioco sviluppato in Java a somma zero e a informazione perfetta come Forza4. Le implementazioni sono state testate su 39 diverse configurazioni di gioco, dimostrando che l'agente PlayerSoft risulta il più ottimale e che l'implementazione della funzione euristica rappresenta un buon compromesso tra complessità di calcolo e risultato atteso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo di questa tesi è quello di analizzare la struttura della società odierna, alla luce delle influenze e modifiche apportate dall’avvento dell'informatica e mostrare come, in generale, il progresso tecnologico abbia profondamente cambiato il nostro modo di vivere. L'introduzione dei computer, l'avvento dell'era digitale e di internet hanno segnato un profondo cambiamento nella storia moderna. In questa tesi andremo prima ad analizzare il capitalismo cognitivo, che vede, al centro della produzione di valore, non più il tempo, ma la conoscenza. Verranno indagati ed esposti i vari aspetti e gli elementi fondamentali della nuova dimensione immateriale, che si è venuta a creare con l'avvento del mondo digitale. Successivamente, viene analizzata la nuova struttura delle imprese, come esse si sono evolute e come si dovrebbero evolvere, per ottimizzare le proprie risorse e adattarsi al nuovo sistema economico sociale. Particolare attenzione verrà posta al nuovo ruolo dei manager e alla produzione sociale. Nel terzo capitolo, vengono analizzati i cambiamenti che sono avvenuti negli ultimi anni all'interno della società; illustreremo il nuovo modo di lavorare, che prevede l'uomo affiancato costantemente dalla tecnologia, e l’apporto dell’intelligenza artificiale al cambiamento della società nei suoi diversi aspetti. Saranno esposte le nuove problematiche emergenti, sia in abito giuridico che etico, conseguenti alla creazione di scenari economico-sociali di cui, prima della rivoluzione tecnologica, non si immaginava nemmeno l'esistenza. Per concludere, vengono presentate le sfide che la politica deve e dovrà affrontare per controllare le nuove dinamiche economiche e le situazioni di monopolio globale che si sono create. Verranno analizzate problematiche e possibili soluzioni, nonché le implicazioni che il progresso tecnologico ha avuto sulla circolazione delle informazioni e di conseguenza sulla percezione della realtà da parte del consumatore.