998 resultados para Producto interno bruto--Perú


Relevância:

30.00% 30.00%

Publicador:

Resumo:

I contenuti e i servizi offerti dal Web hanno subito negli anni una costante e continua evoluzione, dovuti alla maggiore disponibilità di dispositivi in grado di navigarlo. Oggi i requisiti e le aspettative che gli utenti hanno nei confronti delle applicazioni Web sono sempre maggiori, desiderano un accesso ai contenuti sempre più rapido, interfacce semplici e facili da usare, oltre che reattive, e che tali contenuti siano accessibili da una vasta gamma di dispositivi che presentino sempre più funzionalità. Le aziende devono essere pronte a rispondere a queste esigenze e a fornire agli utenti finali la miglior esperienza possibile, rimanendo aggiornati sulle tecnologie per la creazione di applicazioni Web. Questo è ancora più importante per un'azienda possiede più prodotti, sviluppati da team diversi che usano tecnologie diverse. Per alcune aziende è importante che i propri prodotti, sebbene trattino tematiche differenti, si presentino con interfacce che rimandino al proprio marchio, non solo grazie al nome o al logo, quanto più nei componenti utilizzati per creare le interfacce. Succede così che i vari team devono progettare e sviluppare i componenti nella propria tecnologia, in modo che abbiano le stesse funzionalità, stesso stile e stesso comportamento in ogni situazione. Il più delle volte questo è difficile da realizzare e anche costoso da mantenere. Riuscire a centralizzare lo sviluppo di questi elementi in un unico punto aiuta l'azienda a mantenere bassi i costi di manutenzione e a rendere omogenea l'esperienza degli utenti tra i vari prodotti. Obiettivo del lavoro svolto è illustrare le potenzialità e l'utilità fornite dall'introduzione di una suite di componenti personalizzati, seguendo lo standard dei Web Component, all'interno dei prodotti forniti da una grande impresa. L'analisi si concentra sulll'esperienza di chi utilizza tali componenti all'interno dei propri progetti per creare l'interfaccia utente da presentare poi agli utenti finali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il rilevamento di intrusioni nel contesto delle pratiche di Network Security Monitoring è il processo attraverso cui, passando per la raccolta e l'analisi di dati prodotti da una o più fonti di varia natura, (p.e. copie del traffico di rete, copie dei log degli applicativi/servizi, etc..) vengono identificati, correlati e analizzati eventi di sicurezza con l'obiettivo di rilevare potenziali tenativi di compromissione al fine di proteggere l'asset tecnologico all'interno di una data infrastruttura di rete. Questo processo è il prodotto di una combinazione di hardware, software e fattore umano. Spetta a quest'ultimo nello specifico il compito più arduo, ovvero quello di restare al passo con una realtà in continua crescita ed estremamente dinamica: il crimine informatico. Spetta all'analista filtrare e analizzare le informazioni raccolte in merito per contestualizzarle successivamente all'interno della realta che intende proteggere, con il fine ultimo di arricchire e perfezionare le logiche di rilevamento implementate sui sistemi utilizzati. È necessario comprendere come il mantenimento e l'aggiornamento di questi sistemi sia un'attività che segue l'evolversi delle tecnologie e delle strategie di attacco. Un suo svolgimento efficacie ed efficiente risulta di primaria importanza per consentire agli analisti di focalizzare le proprie risorse sulle attività di investigazione di eventi di sicurezza, ricerca e aggiornamento delle logiche di rilevamento, minimizzando quelle ripetitive, "time consuming", e potenzialmente automatizzabili. Questa tesi ha come obiettivo quello di presentare un possibile approccio ad una gestione automatizzata e centralizzata di sistemi per il rilevamento delle intrusioni, ponendo particolare attenzione alle tecnologie IDS presenti sul panorama open source oltre a rapportare tra loro gli aspetti di scalabilità e personalizzazione che ci si trova ad affrontare quando la gestione viene estesa ad infrastrutture di rete eterogenee e distribuite.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'elaborato analizza, in maniera generica, come avviene la produzione, lo stoccaggio ed il trasporto dell'idrogeno e valuta i mezzi che sfruttano l'idrogeno come combustibile: i veicoli a fuel cell e i veicoli con motori a combustione interna alimentati a idrogeno (H2ICE). Poiché le proprietà dell'idrogeno sono molto diverse rispetto a quelle dei combustibili convenzionali, queste nuove tecnologie necessitano di celle di prova appositamente progettate e dimensionate. L'elaborato, pertanto, descrive nel dettaglio quali sono le normative, le strumentazioni e gli standard da rispettare per garantire che, all'interno della sala, i test possano essere eseguiti in totale sicurezza. Inoltre, vengono esaminati i sistemi di consegna e dosaggio dell'idrogeno, passando poi al sistema di ventilazione che gioca un ruolo fondamentale nel funzionamento dei test. Infine, sono riportati esempi di specifici set-up sperimentali volti allo studio delle problematiche riscontrate nei motori a combustione interna alimentati a idrogeno. Nel primo set-up, vengono descritti i sistemi di controllo, il tipo di motore e tutti i sensori utilizzati per analizzare l'impatto che ha l'EGR sui motori H2ICE; mentre, nel secondo, vengono esaminati i fattori che inducono la detonazione e la relativa frequenza.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le fibre ottiche sono materiali costituiti al loro interno da fibre di vetro o filamenti polimerici. Esse attualmente trovano grande impiego nel campo della telecomunicazione, ma è assai importante lo sviluppo che stanno ottenendo nel campo del monitoraggio strutturale. L’obiettivo del lavoro descritto in questo elaborato finale è di riuscire a sviluppare un programma in grado di computare una simulazione analitico-parametrica riguardante i segnali restituiti da un sensore in fibra ottica. In particolare, sono stati creati due codici (Codice 1 e Codice 2) per sostenere un Codice Esistente. Quest’ultimo prende in input dei dati sperimentali che, invece di essere ottenuti da prove in laboratorio, sono prodotti in uscita dal Codice 1, il quale simula prove a fatica o statiche in provini di diverso materiale. Attraverso l’analisi di questi dati, il codice finale crea delle curve probabilistiche in grado di asserire con quanta probabilità e con quale confidenza è possibile valutare i risultati esplicitati dallo strumento di rilevazione, che in questo caso è un sensore in fibra ottica. D’altra parte, il Codice 2 analizza le conseguenze nella Probability of Detection e confidenza al variare dei parametri maggiormente influenti nel modello.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa relazione di tesi verrà affrontato il problema della locomozione naturale in ambienti virtuali che possiedono una grandezza maggiore dello spazio reale nel quale l'utente si muove. Negli anni sono stati sviluppati numerosi metodi di navigazione, ma tra tutti la locomozione naturale è il sistema che porta un livello di immersione maggiore nello spazio virtuale, più di qualsiasi altra tecnica. In questo lavoro di tesi verrà proposto un algoritmo in grado di favorire la locomozione naturale all'interno di lunghi spazi chiusi, andando a modificare la geometria dello spazio virtuale (che andrà ad assumere una forma circolare) e mantendendo comunque un certo grado di realismo dal punto di vista dell'utente. L'obiettivo è quello di tradurre uno spazio virtuale chiuso e lungo (caso comune: un corridoio) in una forma circolare inscritta in una stanza di 2x2m, con un approccio simile a quello degli impossible spaces, con l'obiettivo di studiare in futuro entro quale percentuale di sovrapposizione l'utente si accorge di trovarsi in una geometria impossibile. Nel primo capitolo verranno introdotti i concetti chiave di VR e AR, nonché un'introduzione all'Engine Unity e al software Blender. Nel secondo capitolo si tratterà di computer graphics, quindi si introdurranno i concetti base della grafica 3D con un focus sulla matematica alla base di ogni processo grafico. Nel terzo capitolo verrà affrontano il concetto di embodiment, quindi la percezione del proprio corpo, l'importanza dell'immersitvità dei sistemi virtuali e verrà descritto un paper precedentemente realizzato riguardante tale concetto. Nel capitolo quattro si parlerà del movimento all'interno dei sistemi di realtà virtuale, della locomozione naturale e delle tecniche per rendere tale metodo più accessibile. Nel capitolo cinque infine verrà descritto l'algoritmo realizzato e verranno mostrati i risultati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato di tesi è stato realizzato coerentemente con quanto osservato in Cefla s.c., azienda italiana composta attualmente da 4 Business Unit che operano a livello internazionale in settori distinti. I temi trattati riguardano nel dettaglio la Business Unit Medical Equipment, la quale realizza prodotti a supporto del professionista sanitario in tutte le fasi della sua attività, comprendendo riuniti odontoiatrici, apparecchiature per l’imaging e radiologia digitale e sistemi di sterilizzazione. L’obiettivo di questo elaborato è quello di descrivere l’attuale processo di Sales & Operations Planning all’interno di questa divisione dell’azienda e contribuire alla progettazione del piano per la sua strutturazione, reso necessario dalla situazione di forte criticità che Cefla s.c. è stata costretta ad affrontare. Vengono quindi descritte le problematiche che caratterizzano i processi interni all’azienda allo stato attuale, la cui valutazione è stata supportata da consulenti esterni, al fine di evidenziare gli aspetti più critici ed elaborare proposte di miglioramento. Queste ultime sono distinte in funzione delle diverse figure coinvolte che hanno contribuito alla loro realizzazione e ai sottoprocessi interessati e che costituiscono il Sales & Operations Planning: Sales Forecasting, Demand Planning e Supply Planning. In particolare, vengono approfonditi i processi che riguardano la previsione della domanda, in quanto per essi è stato possibile collaborare nell’elaborazione di proposte di miglioramento mirate. Visti i tempi medio lunghi che caratterizzano le soluzioni proposte all’azienda si è cercato di contribuire con la progettazione di proposte quick-win in ambito di Sales Forecasting e Demand Planning. Infine, si è tentato di quantificare i costi sostenuti da Cefla s.c. per far fronte alla situazione di criticità affrontata tramite valutazioni economiche e KPI, potendo così stimare l’impatto dato dall’implementazione di proposte di miglioramento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi viene trattata la problematica di determinare le migliori K soluzioni per due problemi di ottimizzazione, il Knapsack Problem 0-1 e lo Shortest Path Problem. Tali soluzioni possono essere impiegate all'interno di metodi di column generation per la risoluzione di problemi reali, ad esempio Bin Packing Problems e problemi di scheduling di veicoli ed equipaggi. Sono stati implementati, per verificarne sperimentalmente le prestazioni, nuovi algoritmi di programmazione dinamica, sviluppati nell’ambito di un programma di ricerca. Inizialmente, per entrambi i problemi, è stato descritto un algoritmo che determinasse le migliori K soluzioni per ogni possibile sottoproblema; partendo da uno zaino con capacità nulla, nel caso del Knapsack Problem 0-1, e dalla determinazione di un cammino dal vertice sorgente in se stesso per lo Shortest Path Problem, l’algoritmo determina le migliori soluzioni di sottoproblemi via via sempre più grandi, utilizzando le soluzioni costruite per gli stati precedenti, fino a ottenere le migliori soluzioni del problema globale. Successivamente, è stato definito un algoritmo basato su un approccio di ricorsione backward; in questo caso si utilizza una funzione ricorsiva che, chiamata a partire dallo stato corrispondente al problema globale, viene richiamata solo sugli stati intermedi strettamente necessari, e per ognuno di essi non vengono determinate soluzioni superflue.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'oggetto di questo elaborato è lo studio di un collegamento wireless alle frequenze dei Terahertz, quindi nel range compreso tra i 300 GHz e i 3 THz. In particolare, si studierà il caso di una trasmissione wireless di alcuni metri all'interno di un ambiente chiuso, mostrando in che modo le diverse frequenze vengono attenuate. L’interesse per queste frequenze è motivato dalla quantità di tecnologie sviluppabili con esse, come ad esempio il 6G. Nell’elaborato verranno trattate anche le problematiche che si devono affrontare quando si sceglie di usare i THz, in particolare l’attenuazione dovuta all’assorbimento molecolare dovuto all’aria e alle condizioni atmosferiche variabili, il che rende la trasmissione THz ancora precaria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'odierna volatilità dei costi delle materie prime e il generale aumento dei prezzi legati all'energia, rendono necessario lo sviluppo di strategie atte a contenerne le conseguenze, in modo particolare all'interno delle innumerevoli realtà industriali che risultano inevitabilmente coinvolte. Il seguente elaborato è incentrato sull’analisi del funzionamento di una pressa per il colaggio di articoli sanitari in ceramica e sulla ricerca di soluzioni costruttive alternative del telaio della macchina che garantiscano le medesime prestazioni dell’originale ma con un’eventuale diminuzione sul costo di produzione. Ai fini dell’analisi vengono sviluppati una serie di modelli matematici (sia analitici che basati sui metodi numerici) con l’obiettivo di studiare lo stato deformativo e tensionale della macchina, valutare le condizioni di carico a cui sono soggette le varie giunzioni (saldate e bullonate) e individuare eventuali criticità. Il medesimo approccio è utilizzato nell’analisi delle soluzioni alternative sviluppate all’interno dell’elaborato. Su di esse viene poi svolta una stima dei costi di produzione da confrontare con i costi relativi agli equivalenti semilavorati presenti nella struttura originale, in modo da individuare e valutare un eventuale vantaggio in termini economici.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La classificazione di dati geometrici 3D come point cloud è un tema emergente nell'ambito della visione artificiale in quanto trova applicazione in molteplici contesti di guida autonoma, robotica e realtà aumentata. Sebbene nel mercato siano presenti una grande quantità di sensori in grado di ottenere scansioni reali, la loro annotazione costituisce un collo di bottiglia per la generazione di dataset. Per sopperire al problema si ricorre spesso alla domain adaptation sfruttando dati sintetici annotati. Questo elaborato si pone come obiettivo l'analisi e l'implementazione di metodi di domain adaptation per classificazione di point cloud mediante pseudo-labels. In particolare, sono stati condotti esperimenti all'interno del framework RefRec valutando la possibilità di sostituire nuove architetture di deep learning al modello preesistente. Tra queste, Transformer con mascheramento dell'input ha raggiunto risultati superiori allo stato dell'arte nell'adattamento da dati sintetici a reali (ModelNet->ScanNet) esaminato in questa tesi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'elaborato descrive l'esperienza di tirocinio svolta nell'azienda Vertiv, dove è stato chiesto di realizzare un simulatore per il calcolo della degradazione delle batterie nella partecipazione al Grid Support. Nella prima parte viene illustrato il panorama energetico attuale, descrivendo il funzionamento generale di un sistema elettrico. Successivamente vengono descritti i gruppi di continuità e le loro modalità di funzionamento. A questo si collega la descrizione dei prodotti dell'azienda che verranno considerati nel simulatore. Vengono descritti i servizi di Grid Support che un cliente può scegliere al fine di ottenere un uso ottimale dell'energia elettrica, e quindi un risparmio, e quelli che aiutano la rete a bilanciare le variazioni di frequenza. Vi è inoltre una descrizione delle batterie, le loro caratteristiche e i parametri fondamentali di questa modalità di immagazzinamento dell'energia. Vengono riportate le principali tipologie delle batterie al Litio, essendo queste quelle utilizzate all'interno del simulatore. L'ultimo capitolo riguarda la descrizione del simulatore; vengono riportate le caratteristiche delle batterie considerate, divise a seconda del fornitore. Il simulatore è diviso in due parti, una chiamata "Frequency Regulation", l'altra "Peak Shaving". Nella prima vengono mostrati i dati di input che possono essere cambiati, la degradazione delle batterie collegata ai servizi FFR e FCR-D, i possibili guadagni che un cliente potrebbe ottenere nel momento in cui firma un contratto per partecipare ad un programma di variazione della frequenza, a seconda del mercato elettrico scelto. Nella seconda i dati di input, la degradazione delle batterie e i possibili risparmi associati al servizio Peak Shaving. Infine vengono riportati degli scenari di esempio per mostrare come un ipotetico cliente possa giocare con i dati di input e confrontare i risultati ottenuti allo scopo di ottenere la miglior soluzione possibile.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi è basata sul dimensionamento e l’analisi degli articoli che possono andare all’interno di un nuovo magazzino. Il progetto nasce dalla necessità di espandere il centro di stoccaggio attuale. Verranno costruiti un magazzino Autostore, una struttura più compatta ed efficiente nello stoccaggio della merce, ed un nuovo magazzino pallet servito da traslo elevatori. Dato che i materiali all’interno dell’Autostore devono essere stoccati all’interno di cassette più piccole rispetto ad un pallet, è stato necessario stimare il numero di articoli idonei a questo tipo di stoccaggio sia dal punto di vista del peso che dal punto di vista volumetrico, dato che di solo un 30% dei codici si è a conoscenza delle dimensioni. L’analisi si è sviluppata tramite stime in base a quanti codici siano presenti all’interno dei pallet e la loro quantità al suo interno. Da questa stima si sono ricavate tre categorie, verde, arancione e rossa che identificano se i materiali risultano idonei oppure no. I primi sono quelli che possono andare all’interno dell’Autostore, i secondi risultano essere border line, mentre i terzi non possono andare all’interno sicuramente. Degli articoli in esame sono state estratte anche le giacenze medie nei 3 anni passati, in modo tale da dimensionare adeguatamente i magazzini, le entrate merci, così da vedere quante baie di carico sono necessarie e le varie tipologie di movimento legate ai prelievi e le tempistiche di prelievo per ogni baia di scarico, in modo tale da valutare le minime prestazioni che il nuovo magazzino deve soddisfare. Sono stati calcolati anche dei flussi di materiale, uscente ed entrante dall’azienda, in modo tale da individuare la posizione ottimale del nuovo centro di stoccaggio. Infine sono state dimensionate e costificate le due soluzioni: quella Autostore che può ospitare tutti gli articoli della categoria verde, di cui sono stati sviluppati due scenari, mentre quella del magazzino automatico pallet che contiene le altre due categorie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’elaborato si è sviluppato all'interno dell’azienda System Logistics S.p.A. di Fiorano Modenese, leader nel settore del material handling e dell’intralogistica. Il focus dell'elaborato è sulla progettazione di un piano di campionamento indicizzato secondo il livello di qualità accettabile. Successivamente ad una presentazione più approfondita dell’azienda e dei prodotti offerti, si passa all’introduzione teorica dei temi dell’intralogistica e della qualità. Questo permette di comprendere il contesto operativo più generale in cui si inserisce il progetto. Infatti, la parte centrale è dedicata alla presentazione delle origini, degli obiettivi e della metodologia del progetto, in particolare, anticipando le procedure che si sono poste come basi strutturali della progettazione. La parte finale descrive il processo statistico che ha portato all’ottenimento del nuovo piano di campionamento e la sua applicazione empirica ai componenti più critici della navetta del LogiMate, il più recente prodotto dell’azienda. In quest’ultima fase si pone il focus sul processo di raccolta e analisi dei dati presentando, in particolare, un’analisi comparativa rispetto alla situazione iniziale dal punto di vista del rischio e un’analisi effettuata con le Carte di Controllo sul processo produttivo di un fornitore. L’esposizione è realizzata anche mediante grafici, ottenuti principalmente attraverso il supporto di Excel e Minitab, al fine illustrare in modo più agevole ed esplicito i risultati ottenuti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

All'interno della tesi viene analizzato il principio del massimo per l'operatore di Laplace e per operatori lineari ellittici differenziali. Attraverso l'utilizzo delle formule di media si dimostra il principio del massimo forte e debole per l'operatore di Laplace e si analizzano le sue applicazioni, quali la disuguaglianza di Harnack, il teorema di Liouville e il teorema fondamentale dell'algebra. Successivamente si vanno a dimostrare il principio del massimo debole e, tramite il lemma di Hopf, il principio del massimo forte, per operatori lineari ellittici differenziali. Infine si studia il caso dell'unicità delle soluzioni dei problemi di Dirichlet per operatori lineari ellittici differenziali, sfruttando il principio del massimo debole.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel presente elaborato sono state analizzate delle soluzioni per i sistemi di post-trattamento che permettano ai veicoli di rispettare la futura norma Euro7. In particolare è stato affrontato il principale problema dell'avviamento a freddo dei veicoli che produce la maggior parte degli inquinanti emessi. Sono stati vagliati diversi studi scientifici al fine di trovare soluzioni efficaci per rendere le emissioni dei veicoli sotto i limiti imposti dalla futura normativa, i cui valori sono stati proposti dal consorzio CLOVE. Dopo aver analizzato uno studio sul confronto di varie configurazioni di sistemi di post-trattamento, sono state prese in considerazione due soluzioni. La prima prevede l'introduzione di un bruciatore nel sistema al fine di mantenerlo alla temperatura ottimale di funzionamento, ovvero alla temperatura a cui avvengono le reazioni di ossidazione e di riduzione delle sostanze inquinanti. La seconda soluzione prevede, invece, l'aggiunta nel sistema di un riscaldatore elettrico accoppiato ad un generatore termoelettrico: il primo ha lo stesso scopo del bruciatore, mentre il secondo serve per convertire il calore di scarto dei gas di scarico in energia elettrica da fornire al riscaldatore. Infine, dopo aver analizzato le due soluzioni attraverso i test riportati dagli articoli scientifici studiati, si è concluso che entrambe le strategie permettono un'efficace riduzione delle emissioni anche per avviamento a freddo del veicolo e, quindi, possono essere considerate valide per permettere ai veicoli di rientrare all'interno dei limiti imposti dalla nuova normativa Euro7.