967 resultados para analisi non standard iperreali infinitesimi
Resumo:
Il seguente elaborato di tesi prevede la simulazione del comportamento di quattro diversi layout di magazzino contenenti lo stesso numero di vani, ipotizzando uno stoccaggio della merce secondo il criterio delle classi. Inoltre è stata analizzata l’influenza della variabile altezza sul tempo di ciclo dei singoli magazzini. I quattro layout analizzati sono stati: il layout tradizionale, il layout diagonal cross aisle, il layout fishbone e il layout leaf. Il primo è un magazzino “convenzionale”, nel quale l’intersezione dei corridoi genera sempre angoli retti, i restanti tre sono magazzini “non convenzionali”, ovvero l’intersezione dei corridoi genera angoli particolari. Per ciascun magazzino è stato realizzato un modello matematico discreto in grado di determinare la posizione di ogni singolo vano, la sua distanza dal punto I/O e la sua altezza da terra. Il modello matematico e la tipologia di gestione del magazzino sono stati successivamente implementati in un programma scritto su Microsoft Excel, mediante il linguaggio integrato VBA (Visual Basic for Application). Questo ha permesso di determinare i tempi di ciclo medi per ciascun magazzino, facendo il rapporto tra le distanze precedentemente calcolate e le velocità di traslazione e sollevamento del carrello elevatore. Per ottenere dalla simulazioni dei valori il più possibile prossimi alla realtà è stata adottata la metodologia di Simulazione Monte Carlo e un numero di estrazioni pari a 1000. Dai risultati ottenuti è emerso che il magazzino fishbone è in grado di garantire i miglior tempo di ciclo e che i tempi di ciclo più bassi si ottengono, a parità di vani presenti in un magazzino, aumentando le dimensioni in pianta piuttosto che aumentando l’altezza del magazzino.
Resumo:
La sostenibilità (ambientale, economica e sociale) non rappresenta per le aziende un trend passeggero, ma una direzione da seguire per poter rispondere a norme sempre più stringenti e a consumatori sempre più attenti. La tesi illustra il concetto di sviluppo sostenibile, il quale ha segnato varie tappe della storia tra cui la pubblicazione nel 2015 dell’Agenda 2030 dalle Nazioni Unite e la definizione dei 17 obiettivi di sviluppo sostenibile per contrastare i problemi climatici. Vengono descritti i principali strumenti introdotti dall’Unione Europea per promuovere una crescita verde, utilizzando leve di intervento sia legislative che con incentivi, quali il Green Deal che mira a promuovere attività sostenibili che non generino emissioni di inquinanti, il decreto legislativo che regola l’informativa non finanziaria, il Piano d’Azione della Commissione Europea per finanziare la crescita sostenibile. Quello che le aziende comunicano sui propri siti web è una prima indicazione delle loro politiche in materia di sostenibilità, insieme ai report e alle certificazioni più formali. Lo scopo della tesi è valutare a che punto sono le aziende di diversi settori e dimensioni nella comunicazione di queste tematiche, analizzando un campione di esse, per mezzo di un form progettato per raccogliere e archiviare dati strutturati presi dai siti web. Grazie a questo si arriverà ad un punteggio per ciascuna di esse che rappresenta l’attuale livello comunicativo. Un problema attuale riscontrato è quello del greenwashing: una strategia di marketing, per dimostrare un impegno non reale nei confronti dell’ambiente agli occhi degli stakeholder e per farle guadagnare punti in reputazione e immagine aziendale. Il fine ultimo della tesi è quello di dimostrare che la sostenibilità è una scelta necessaria che va compiuta fin da subito, e non una questione solo delle grandi aziende o dei settori più “verdi”.
Resumo:
Il Raytracing è una delle tecniche più utilizzate per generare immagini fotorealistiche. Introdotto nel mondo del rendering da più di 40 anni, col tempo si è evoluto, e ad oggi è considerato la tecnica standard in industrie come VFX e film d'animazione. Il problema del Raytracing risiede nel fatto che per essere applicato, bisogna effettuare dei test d'intersezione, raggio-primitiva, con tutti gli oggetti presenti nella scena da renderizzare. Sebbene queste operazioni siano tutto sommato semplici, tipicamente il numero degli oggetti su cui vanno effettuate è talmente elevato che l'applicazione di questa tecnica diventa impraticabile. Per questo si è pensato di raggruppare le primitive in speciali strutture dati chiamate Strutture di accelerazione spaziale. Esse hanno il compito di ridurre il numero di test da effettuare, abbassando il costo asintotico della ricerca da lineare a sub-lineare (o logaritmico) nel numero di primitive. Nel corso degli anni sono state introdotte diverse strutture di accelerazione spaziale per il Raytracing, ognuna con le sue peculiarità, i suoi vantaggi ed i suoi svantaggi. In questa tesi verranno studiate alcune delle principali strutture di accelerazione spaziale (BVH, Uniform Grid ed Octree), concentrandosi in particolare sulle tecniche di costruzione ed attraversamento di ognuna di esse. Per farlo, verrà anche trattato tutto il background necessario sul Raytracing e Le strutture di accelerazione verranno anche implementate e messe a confronto su diverse scene. Il confronto permetterà di evidenziare come ognuna di esse porti dei vantaggi, e che non esiste una struttura di accelerazione assolutamente migliore delle altre.
Resumo:
L'elaborato si occupa di analizzare diverse tecnologie di accumulo elettrochimico con lo scopo di dimensionare un sistema di accumulo che verrà accoppiato ad un parco eolico, collocato in Sicilia. Lo standard di connessione sarà in AT a 36 kV, un nuovo standard di Terna che permette di snellire le connessioni di impianti rinnovabili con potenza inferiore a 100 MW. A seguito di un primo dimensionamento analitico e di un confronto con i fornitori, si è optato per l'utilizzo della tecnologia Litio-ione, meno costosa e più performante e il cui impatto ambientale risulta essere controllato. Infine, si è realizzata una valutazione economica del sistema, ipotizzando tre diverse destinazioni di utilizzo del sistema di accumulo, che può offrire servizi ancillari alla rete o partecipare al nuovo mercato delle capacità di Terna, con lo scopo di creare una riserva di energia e partecipare al controllo e alla stabilità della rete. Si è quindi stimato un possibile tempo di ritorno dell'investimento, tenendo conto anche dell'aumento dei prezzi legato all'attuale condizione politico-economica.
Resumo:
Questa tesi si propone di analizzare due macchinari della linea di “Handling” della divisione Active di IMA S.p.A., ovvero la macchina “Cyclops” e la macchina “Hercules”. Per entrambe le macchine si vuole svolgere un’analisi completa dei rischi strutturali: si vogliono individuare, infatti, i componenti strutturalmente critici al fine di proporre migliorie e soluzioni per evitare problematiche o danneggiamenti alle macchine. Per l’individuazione delle criticità strutturali, la prima cosa effettuata è stata un’analisi del funzionamento dei macchinari, attraverso uno studio dei singoli componenti e dei loro montaggi, a cui è seguita un’analisi dei carichi e delle sollecitazioni agenti su entrambe le macchine in condizioni di lavoro standard. A valle di queste analisi è stato possibile, quindi, individuare i componenti maggiormente sollecitati e, con l’ausilio di un software di nome Creo Simulate, ovvero un’estensione del software PTC Creo, molto diffuso nell’ambito della progettazione 3D di componenti industriali, sono state eseguite delle simulazioni virtuali di calcolo agli elementi finiti. Dall’analisi dei risultati delle simulazioni eseguite al calcolatore si sono evidenziate le eventuali criticità di ogni componente proponendo modifiche di progettazione, sia in termini di modifica della geometria del componente, sia riguardo a possibili modifiche nella scelta dei materiali. In aggiunta alle simulazioni virtuali, per completezza d’analisi, sono state svolte anche analisi strutturali di tipo analitico per la verifica di collegamenti bullonati e collegamenti saldati e per la verifica a fatica di alberi in rotazione.
Resumo:
Il flusso di progettazione è un processo variabile, costituito da scelte, comporta una analisi preliminare del case study e delle apparecchiature da installare, e successivamente la proposta di soluzioni che possano soddisfare i requisiti del processo. I documenti standard di installazione possono semplificare il lavoro di progettazione e sono alla base di questo. La definizione di standard si inserisce all’interno di un panorama variabile e propone una soluzione unica e consolidata che si pone come base solida per la progettazione futura. L’obiettivo della tesi è quello di creare e formalizzare due standard per il sito produttivo BASF Italia di Pontecchio Marconi per l’installazione di Essiccatori di tipo Termomix e di filtri Nutsche, apparecchiature ampiamente utilizzate nel settore della chimica fine. Questi equipment sono ricorrenti in impianto e, a seconda del contesto in cui operano, hanno differenze più o meno rilevanti. Seguendo gli step progettuali sono stati redatti un P&ID standard, completo di blocchi di sicurezza, e un report finale per ogni apparecchiatura studiata includendo le soluzioni e le decisioni proposte. Ovviamente, non essendo possibile unificare ogni aspetto di un’installazione perché i vari processi hanno requisiti differenti, si sono affiancate allo standard alcune considerazioni al di fuori di esso. Inoltre, dove possibile, sono state proposte anche alcune soluzioni innovative che possono migliorare e risolvere alcuni problemi attualmente presenti.
Resumo:
Lo stabilimento forlivese di Bonfiglioli S.p.A., centrale nella produzione di riduttori epicicloidali per macchine mobili, escavatori, turbine eoliche e mobilità elettrica, è un elemento fondamentale per il successo dell’azienda che da anni è leader di mercato nella produzione di motoriduttori, azionamenti e inverter per numerosi settori. Questo fa sì che tale impianto sia da tempo oggetto di importanti investimenti per incrementare la produttività, migliorare la logistica interna, soddisfare standard di sicurezza e qualità di prodotto e di processo sempre più alti. Il presente elaborato si inserisce tra le attività di efficientamento dei flussi logistici di stabilimento e punta a valutare la possibilità di ricollocamento di un’isola robotizzata per montaggio di kit planetario all’interno del macro-reparto di assemblaggio, in previsione di investimenti attuali e futuri che ridisegneranno lo scenario produttivo interno. Per valutare la convenienza di spostamento è stata eseguita un’analisi costi-benefici, confrontando l’ubicazione attuale e un’alternativa possibile, condivisa con i responsabili dell’ente di ingegneria di processo, prendendo in esame i vantaggi che questa seconda porterebbe. È inoltre stato fatto un primo dimensionamento di massima (e cautelativo) per un’eventuale creazione di un supermarket per i kit montati dalla cella in esame. Scopo principale dell’elaborato oltre a quello di mettere in luce i miglioramenti possibili dei flussi logistici interni grazie allo spostamento di tale isola, è anche quello di portare una metodologia di analisi che possa poi essere riutilizzata e migliorata per progetti di relayout futuri a più ampio respiro, in un’ottica sempre più “Lean”.
Resumo:
Il Routing rappresenta uno dei problemi più studiati nell’ambito della Ricerca Operativa in quanto offre molteplici possibilità di ottimizzazione da cui possono derivare altrettanti vantaggi per le aziende che decidono di gestirlo in maniera strutturata. Uno dei principali ambiti di applicazione del routing è la pianificazione operativa del trasporto merci a clienti sparsi in un determinato territorio. Ci sono aziende che devono organizzare la loro Logistica distributiva ogni giorno. Ormai è diventato evidente che la realizzazione di questo processo mediante modalità “standard”, senza l’utilizzo di appositi strumenti di ottimizzazione, non solo porta alla perdita di occasioni importanti in termini di vantaggi raggiungibili, ma è anche molto più dispendiosa a livello di tempo richiesto. Molte aziende si stanno quindi affidando a soluzioni SW che si vadano ad integrare con i loro processi decisionali. Questi sistemi hanno alla base delle componenti algoritmiche in grado di trovare la migliore soluzione possibile per la tipologia specifica di Routing da affrontare. Per questi motivi, lo sviluppo di algoritmi in grado di risolvere questo problema rappresenta una parte consistente della letteratura scientifica in ambito di ottimizzazione. In questo elaborato si andranno a definire le principali caratteristiche di un problema di Routing in forma base e nelle sue varianti principali. Si descriveranno le caratteristiche dei problemi di Routing incontrati da Optit S.r.l, un’azienda che opera nel settore dello sviluppo di soluzioni SW di ottimizzazione. Nel fare ciò, si cercherà di trovare sovrapposizione con quanto descritto in letteratura. Infine, si descriveranno alcuni solver Open-Source per risolvere problemi di Routing e si mostreranno i risultati da essi ottenuti su alcuni casi di interesse industriale.
Resumo:
Al fine di mitigare gli impatti ambientali legati alla produzione energetica, lo sviluppo di tecnologie per l’utilizzo di carburanti carbon-free risulta essere essenziale. Si confida che la sostituzione di combustibili convenzionali con sorgenti di energia rinnovabili e bio-combustibili possa ridurre le emissioni di gas serra. Tuttavia, l’intermittenza della maggior parte delle sorgenti di energia rinnovabile comporta problemi di stoccaggio dell’energia. Pertanto, risulta necessaria l’introduzione di opportuni vettori energetici quali l’idrogeno. Nonostante l’elevata reattività dell’idrogeno, gli elevati costi per raggiungere standard di sicurezza opportuni nella fase di trasporto e stoccaggio limitano il suo uso estensivo. Per tale motivo, sono state vagliate sostanze alternative, quali l’ammoniaca, caratterizzate da processi produttivi collaudati oltreché di facile stoccaggio e trasporto. Considerando i processi produttivi di entrambe le sostanze, la possibile presenza di metano ha suggerito lo studio di miscele ternarie costituite da metano, idrogeno e ammoniaca. Sulla base di queste premesse, il presente lavoro di tesi è stato incentrato sull’analisi cinetica e sulla valutazione dei principali parametri di sicurezza di alcune miscele gassose in presenza di aria e aria arricchita. Tale analisi ha permesso una valutazione preliminare della sostenibilità delle miscele ternarie in esame al variare delle condizioni operative. Infatti, sono state quantificate le prestazioni ambientali e gli standard di sicurezza al fine di confrontare la sostenibilità e la convenienza delle alternative di processo.
Resumo:
Being the commonest ocular disorder, dense cataracts disable fundoscopic examination and the diagnosis of retinal disorders, which dogs may be predisposed. The aim of this study was to compare the electroretinographic responses recorded according to the International Society for Clinical Electrophysiology of Vision human protocol to evaluate retinal function of diabetic and non diabetic dogs, both presenting mature or hypermature cataracts. Full-field electroretinogram was recorded from 66 dogs, with ages varying from 6 to 15 years old allocated into two groups: (1) CG, non diabetic cataractous dogs, and (2) DG, diabetic cataractous dogs. Mean peak-to-peak amplitude (microvolts) and b-wave implicit time (milliseconds) were determined for each of the five standard full-field ERG responses (rod response, maximal response, oscillatory potentials, single-flash cone response and 30 Hz flicker). Comparing CG to DG, ERGs recorded from diabetic dogs presented lower amplitude and prolonged b-wave implicit time in all ERG responses. Prolonged b-wave implicit time was statistically significant (p< 0.05) at 30 Hz flicker (24.0 ms versus 22.4 ms). These data suggests full-field ERG is capable to record sensible alterations, such as flicker's implicit time, being useful to investigate retinal dysfunction in diabetic dogs.
Resumo:
Background: Although meta-analyses have shown that placebo responses are large in Major Depressive Disorder (MDD) trials; the placebo response of devices such as repetitive transcranial magnetic stimulation (rTMS) has not been systematically assessed. We proposed to assess placebo responses in two categories of MDD trials: pharmacological (antidepressant drugs) and non-pharmacological (device-rTMS) trials. Methodology/Principal Findings: We performed a systematic review and meta-analysis of the literature from April 2002 to April 2008, searching MEDLINE, Cochrane, Scielo and CRISP electronic databases and reference lists from retrieved studies and conference abstracts. We used the keywords placebo and depression and escitalopram for pharmacological studies; and transcranial magnetic stimulation and depression and sham for non-pharmacological studies. All randomized, double-blinded, placebo-controlled, parallel articles on major depressive disorder were included. Forty-one studies met our inclusion criteria-29 in the rTMS arm and 12 in the escitalopram arm. We extracted the mean and standard values of depression scores in the placebo group of each study. Then, we calculated the pooled effect size for escitalopram and rTMS arm separately, using Cohen's d as the measure of effect size. We found that placebo response are large for both escitalopram (Cohen's d-random-effects model-1.48; 95% C.I. 1.26 to 1.6) and rTMS studies (0.82; 95% C.I. 0.63 to 1). Exploratory analyses show that sham response is associated with refractoriness and with the use of rTMS as an add-on therapy, but not with age, gender and sham method utilized. Conclusions/Significance: We confirmed that placebo response in MDD is large regardless of the intervention and is associated with depression refractoriness and treatment combination (add-on rTMS studies). The magnitude of the placebo response seems to be related with study population and study design rather than the intervention itself.
Resumo:
In biopulping, efficient wood colonization by a selected white-rot fungus depends on previous wood chip decontamination to avoid the growth of primary molds. Although simple to perform in the laboratory, in large-scale biopulping trials, complete wood decontamination is difficult to achieve. Furthermore, the use of fungal growth promoters such as corn steep liquor enhances the risk of culture contamination. This paper evaluates the ability of the biopulping fungus Ceriporiopsis subvermispora to compete with indigenous fungi in cultures of fresh or poorly decontaminated Eucalyptus grandis wood chips. While cultures containing autoclaved wood chips were completely free of contaminants, primary molds grew rapidly when non-autoclaved wood chips were used, resulting in heavily contaminated cultures, regardless of the C. subvermispora inoculum/wood ratio evaluated (5, 50 and 3000 mg mycelium kg(-1) wood). Studies on benomyl-amended medium suggested that the fungi involved competed by consumption of the easily available nutrient sources, with C. subvermispora less successful than the contaminant fungi. The use of acid-washed wood chips decreased the level of such contaminant fungi, but production of manganese peroxidase and xylanases was also decreased under these conditions. Nevertheless, chemithermomechanical pulping of acid-washed samples biotreated under non-aseptic conditions gave similar fibrillation improvements compared to samples subjected to the standard biodegradation process using autoclaved wood chips.
Resumo:
Support for interoperability and interchangeability of software components which are part of a fieldbus automation system relies on the definition of open architectures, most of them involving proprietary technologies. Concurrently, standard, open and non-proprietary technologies, such as XML, SOAP, Web Services and the like, have greatly evolved and been diffused in the computing area. This article presents a FOUNDATION fieldbus (TM) device description technology named Open-EDD, based on XML and other related technologies (XLST, DOM using Xerces implementation, OO, XMIL Schema), proposing an open and nonproprietary alternative to the EDD (Electronic Device Description). This initial proposal includes defining Open-EDDML as the programming language of the technology in the FOUNDATION fieldbus (TM) protocol, implementing a compiler and a parser, and finally, integrating and testing the new technology using field devices and a commercial fieldbus configurator. This study attests that this new technology is feasible and can be applied to other configurators or HMI applications used in fieldbus automation systems. (c) 2008 Elsevier B.V. All rights reserved.
Resumo:
The Direct Simulation Monte Carlo (DSMC) method is used to simulate the flow of rarefied gases. In the Macroscopic Chemistry Method (MCM) for DSMC, chemical reaction rates calculated from local macroscopic flow properties are enforced in each cell. Unlike the standard total collision energy (TCE) chemistry model for DSMC, the new method is not restricted to an Arrhenius form of the reaction rate coefficient, nor is it restricted to a collision cross-section which yields a simple power-law viscosity. For reaction rates of interest in aerospace applications, chemically reacting collisions are generally infrequent events and, as such, local equilibrium conditions are established before a significant number of chemical reactions occur. Hence, the reaction rates which have been used in MCM have been calculated from the reaction rate data which are expected to be correct only for conditions of thermal equilibrium. Here we consider artificially high reaction rates so that the fraction of reacting collisions is not small and propose a simple method of estimating the rates of chemical reactions which can be used in the Macroscopic Chemistry Method in both equilibrium and non-equilibrium conditions. Two tests are presented: (1) The dissociation rates under conditions of thermal non-equilibrium are determined from a zero-dimensional Monte-Carlo sampling procedure which simulates ‘intra-modal’ non-equilibrium; that is, equilibrium distributions in each of the translational, rotational and vibrational modes but with different temperatures for each mode; (2) The 2-D hypersonic flow of molecular oxygen over a vertical plate at Mach 30 is calculated. In both cases the new method produces results in close agreement with those given by the standard TCE model in the same highly nonequilibrium conditions. We conclude that the general method of estimating the non-equilibrium reaction rate is a simple means by which information contained within non-equilibrium distribution functions predicted by the DSMC method can be included in the Macroscopic Chemistry Method.
Resumo:
In this paper we study the possible microscopic origin of heavy-tailed probability density distributions for the price variation of financial instruments. We extend the standard log-normal process to include another random component in the so-called stochastic volatility models. We study these models under an assumption, akin to the Born-Oppenheimer approximation, in which the volatility has already relaxed to its equilibrium distribution and acts as a background to the evolution of the price process. In this approximation, we show that all models of stochastic volatility should exhibit a scaling relation in the time lag of zero-drift modified log-returns. We verify that the Dow-Jones Industrial Average index indeed follows this scaling. We then focus on two popular stochastic volatility models, the Heston and Hull-White models. In particular, we show that in the Hull-White model the resulting probability distribution of log-returns in this approximation corresponds to the Tsallis (t-Student) distribution. The Tsallis parameters are given in terms of the microscopic stochastic volatility model. Finally, we show that the log-returns for 30 years Dow Jones index data is well fitted by a Tsallis distribution, obtaining the relevant parameters. (c) 2007 Elsevier B.V. All rights reserved.