960 resultados para Modelli, MyJourney, Analisi, Collaudo, Controller
Resumo:
L'odierna volatilità dei costi delle materie prime e il generale aumento dei prezzi legati all'energia, rendono necessario lo sviluppo di strategie atte a contenerne le conseguenze, in modo particolare all'interno delle innumerevoli realtà industriali che risultano inevitabilmente coinvolte. Il seguente elaborato è incentrato sull’analisi del funzionamento di una pressa per il colaggio di articoli sanitari in ceramica e sulla ricerca di soluzioni costruttive alternative del telaio della macchina che garantiscano le medesime prestazioni dell’originale ma con un’eventuale diminuzione sul costo di produzione. Ai fini dell’analisi vengono sviluppati una serie di modelli matematici (sia analitici che basati sui metodi numerici) con l’obiettivo di studiare lo stato deformativo e tensionale della macchina, valutare le condizioni di carico a cui sono soggette le varie giunzioni (saldate e bullonate) e individuare eventuali criticità. Il medesimo approccio è utilizzato nell’analisi delle soluzioni alternative sviluppate all’interno dell’elaborato. Su di esse viene poi svolta una stima dei costi di produzione da confrontare con i costi relativi agli equivalenti semilavorati presenti nella struttura originale, in modo da individuare e valutare un eventuale vantaggio in termini economici.
Resumo:
L'elaborato analizza il funzionamento di un integrated boost converter, operante come sistema di interfaccia per la ricarica di un veicolo elettrico operante a 800V con la colonnina di ricarica a 400V. Il convertitore utilizza le fasi dell'azionamento di trazione come induttanze di filtro. Mediante un’analisi agli elementi finiti sono stati estratti i parametri del motore elettrico di un veicolo stradale operante a 800V. Il funzionamento del convertitore è studiato in ciascuna delle configurazioni proposte in ambiente Simulink. Poi, sono state individuate le posizioni che permettono il funzionamento ottimale del sistema ed infine sono state eseguite le prove a banco per verificare le previsioni dei modelli matematici dell'integrated boost converter. Si è quindi ottenuta una configurazione dell'azionamento a bordo del veicolo che permette il trasferimento di energia tra batteria e colonnina di ricarica a tensione inferiore, seppur siano richiesti sviluppi futuri per poter avere una ricarica completa della batteria.
Resumo:
Il mercato col tempo si è reso sempre più dinamico e ha richiesto alle aziende per sopravvivere una sempre maggiore capacità di innovare e adattarsi. Per rispondere a queste esigenze sono stati ridisegnati nuovi modelli di innovazione, il più famoso tra questi è l’Open Innovation. GELLIFY nasce nel 2016 per favorire l’Open Innovation in Italia, il suo stesso modello è basato sul concetto di Ecosistema e su una strategia win-win tra tutti i soggetti partecipanti: investitori, Start-ups, Corporate. Grazie a questa brillante idea l’azienda ha raggiunto in pochi anni più di 200 dipendenti con tre sedi (Italia, Middle East, Iberia) e un fatturato superiore agli 11 milioni di euro. Per sostenere la crescita e mantenersi agili, GELLIFY, ha dovuto effettuare dei grandi cambiamenti strutturali. Lo scopo di questo elaborato è analizzare GELLIFY combinando insieme la teoria dei microfondamenti con la stella di Galbraith rivisitata da Mckinsey (in cui il sistema premiante è stato incorporato dentro i processi ed è stato dato un ruolo a se stante alla tecnologia). Tutti i diversi elementi sono stati analizzati studiando ciò che l’azienda ha fatto o sta facendo in merito e soprattutto analizzando il percepito dei dipendenti a riguardo, raccolto attraverso l’utilizzo di interviste semistrutturate ai dipendenti e ad alcuni manager. Infine, tutti questi elementi sono stati collegati tra loro studiando come questi incidano sull’espressione delle capacità dinamiche degli individui facendo emergere una carenza nella gestione delle risorse umane dell’azienda. Per risolvere questo problema si è ipotizzato di restringere il campo della soluzione al processo di Onboarding, ritenuto un tassello fondamentale per l’employeer branding e per l’engagement dei dipendenti. La soluzione è stata descritta in maniera dettagliata considerando anche gli elementi presenti in GELLIFY che possono favorirne l’attuazione ma anche evidenziando i fattori critici e come gestirli.
Resumo:
L'elaborato tratta lo studio dell’evoluzione delle perturbazioni di densità non lineari, confrontando modelli con costante cosmologica (wΛ = −1) e modelli alternativi in cui l’energia oscura sia caratterizzata da un’equazione di stato con w diverso da −1, considerando sia il caso con energia oscura costante, sia quello in cui ha fluttuazioni. La costante cosmologica presenta infatti due problemi teorici attualmente senza soluzione: il problema del suo valore e il problema della coincidenza. Per analizzare l’evoluzione delle perturbazioni di materia ed energia oscura, sia nel caso delle sovradensità che nel caso delle sottodensità primordiali, si implementano numericamente le equazioni differenziali non lineari ricavate a partire dalla teoria del collasso sferico. Per parametrizzare il problema, si fa riferimento ai valori critici del contrasto di densità δc e δv che rappresentano, rispettivamente, la soglia lineare per il collasso gravitazionale e la soglia per l’individuazione di un vuoto cosmico. I valori di δc e δv sono importanti poich´e legati agli osservabili cosmici tramite la funzione di massa e la void size function. Le soglie critiche indicate sono infatticontenute nelle funzioni citate e quindi, cambiando δc e δv al variare del modello cosmologico assunto, è possibile influenzare direttamente il numero e il tipo di oggetti cosmici formati, stimati con la funzione di massa e la void size function. Lo scopo principale è quindi quello di capire quanto l’assunzione di un modello, piuttosto che di un altro, incida sui valori di δc e δv. In questa maniera è quindi possibile stimare, con l’utilizzo della funzione di massa e della void size function, quali sono gli effetti sulla formazione delle strutture cosmiche dovuti alle variazioni delle soglie critiche δc e δv in funzione del modello cosmologico scelto. I risultati sono messi a confronto con il modello cosmologico standard (ΛCDM) per cui si assume Ω0,m = 0.3, Ω0,Λ = 0.7 e wΛ = −1.
Resumo:
Il mio elaborato di tesi è basato sull'analisi generale dei modelli matematici alla base delle epidemie e lo studio dei punti di equilibrio dei sistemi che descrivono tali modelli. Il primo capitolo fornisce una descrizione degli elementi di base per lo studio che verrà poi affrontato nei capitoli successivi; nel capitolo in questione ci si riduce a introdurre nomenclatura, parametri e assunzioni di base. Nei capitoli secondo e terzo vengono esposti due tipi di modelli SIR diversi (epidemico e endemico), modelli alla base dell'epidemiologia che spiegano, sotto determinate ipotesi, il comportamento degli individui all'esplodere di una epidemia e il loro cambiamento di compartimento (suscettibile, infetto o rimosso) nel tempo. Di essi viene costruito il sistema di equazioni differenziali e analizzato il comportamento asintotico, per poi studiare i punti di equilibrio e la loro stabilità. Nel capitolo quarto viene analizzato allo stesso modo il modello SEIR, interessante perché fornisce una visione leggermente più sofisticata e vicina alla realtà, poiché tra i compartimenti possibili si suppone esistere anche un compartimento degli esposti, cioè di coloro che sono stati infettati ma che ancora non sono in grado di trasmettere la malattia. L'appendice finale illustra l'apparato matematico utile allo studio di questi modelli: le Equazioni Differenziali infatti sono uno strumento necessario per la descrizione dei fenomeni naturali e per lo studio della stabilità dei punti di equilibrio.
Resumo:
L'elaborato di tesi descrive il mercato e le principali strutture della mobilità aerea urbana, definendo le principali aziende ed i relativi modelli, protagonisti della nuova rete di trasporti ad alimentazione elettrica. Il corpo centrale del documento analizza i velivoli, esplorandone i concetti costruttivi, il design, le caratteristiche aerodinamiche e propulsive. La parte conclusiva propone invece un'analisi comparativa tra questi, basandosi sulle loro prestazioni.
Resumo:
La Tesi presenta un metodo per valutare il livello di reversibilità e circolarità dei componenti edili. Il concetto cardine dello studio è il Design for Disassembly (DfD), definibile come un approccio alla progettazione di organismi edilizi secondo criteri costruttivi volti a facilitare successivi cambiamenti e smantellamenti (completi o parziali), consentendo il riutilizzo dei componenti, al fine di ridurre l’impatto ambientale degli interventi. Attualmente, diverse ricerche in ambito scientifico si dedicano all’approfondimento di questa tematica, correlandola ad altri concetti come la metodologia del Building Information Modeling (BIM), che consente di digitalizzare il processo progettuale, la sua realizzazione e la sua gestione attraverso modelli. Dopo l’analisi dello stato dell’arte, il lavoro è giunto alla definizione di un insieme di parametri idonei per essere introdotti in un modello informativo, in grado di rappresentare la circolarità del componente in termini di DfD. Per ogni elemento del componente analizzato viene assegnato un valore numerico (variabile da 0,1 a 1) a ogni parametro. Tramite l’utilizzo di una formula elaborata nell’ambito di precedenti ricerche svolte dal Dipartimento di Architettura dell'Università di Bologna, opportunamente modificata, si ottiene un indice sintetico finale denominato “Express Building Circularity Indicators” (EBCI). Il metodo di analisi proposto come strumento a supporto del processo progettuale è stato validato tramite l’applicazione a diverse soluzioni di facciata per l’efficientamento energetico di un fabbricato selezionato come caso di studio italiano dal progetto Europeo Horizon 2020 "DRIVE 0 – Driving decarbonization of the EU building stock by enhancing a consumer centred and locally based circular renovation process". I risultati ottenuti hanno consentito di verificare la replicabilità del processo digitalizzato a diverse soluzioni costruttive e l’affidabilità del metodo di valutazione del grado di circolarità.
Resumo:
L’analisi dell’attività cerebrale rivela la presenza di oscillazioni sincrone che coprono un ampio spettro di frequenze e che possono essere rilevate mediante elettroencefalografia (EEG), magnetoencefalografia (MEG) o elettrocorticografia (ECoG). Si presume che esse svolgano un ruolo cruciale in molti importanti processi della corteccia e nell’associazione tra diverse funzioni. Il presente lavoro si pone come obiettivo quello di dimostrare come il ruolo di questi ritmi, in particolare di alpha (8-13 Hz) e di gamma (> 30 Hz), sia fondamentale in meccanismi di attenzione spaziale e semantica. A questo scopo, sono stati perfezionati modelli di massa neuronale esistenti per svilupparne uno in grado di simulare i meccanismi alla base dell’ipotesi di “inhibition timing”, secondo la quale un aumento di potenza in banda alpha permette di ignorare input irrilevanti per il compito. Sono stati, poi, simulati meccanismi di neurodegenerazione causati dalla schizofrenia, patologia correlata ad alterazioni nella neurotrasmissione GABAergica e ad una riduzione nella sincronia e nella potenza della banda gamma, riconducibile ai deficit cognitivi tipici della malattia.
Resumo:
This paper aims to formulate and investigate the application of various nonlinear H(infinity) control methods to a fiee-floating space manipulator subject to parametric uncertainties and external disturbances. From a tutorial perspective, a model-based approach and adaptive procedures based on linear parametrization, neural networks and fuzzy systems are covered by this work. A comparative study is conducted based on experimental implementations performed with an actual underactuated fixed-base planar manipulator which is, following the DEM concept, dynamically equivalent to a free-floating space manipulator. (C) 2011 Elsevier Ltd. All rights reserved.
Resumo:
A model predictive controller (MPC) is proposed, which is robustly stable for some classes of model uncertainty and to unknown disturbances. It is considered as the case of open-loop stable systems, where only the inputs and controlled outputs are measured. It is assumed that the controller will work in a scenario where target tracking is also required. Here, it is extended to the nominal infinite horizon MPC with output feedback. The method considers an extended cost function that can be made globally convergent for any finite input horizon considered for the uncertain system. The method is based on the explicit inclusion of cost contracting constraints in the control problem. The controller considers the output feedback case through a non-minimal state-space model that is built using past output measurements and past input increments. The application of the robust output feedback MPC is illustrated through the simulation of a low-order multivariable system.
Resumo:
Electromagnetic suspension systems are inherently nonlinear and often face hardware limitation when digitally controlled. The main contributions of this paper are: the design of a nonlinear H(infinity) controller. including dynamic weighting functions, applied to a large gap electromagnetic suspension system and the presentation of a procedure to implement this controller on a fixed-point DSP, through a methodology able to translate a floating-point algorithm into a fixed-point algorithm by using l(infinity) norm minimization due to conversion error. Experimental results are also presented, in which the performance of the nonlinear controller is evaluated specifically in the initial suspension phase. (C) 2009 Elsevier Ltd. All rights reserved.
Resumo:
Mutations in the ATM gene lead to the genetic disorder ataxia-telangiectasia. ATM encodes a protein kinase that is mainly distributed in the nucleus of proliferating cells. Recent studies reveal that ATM regulates multiple cell cycle checkpoints by phosphorylating different targets at different stages of the cell cycle. ATM also functions in the regulation of DNA repair and apoptosis, suggesting that it is a central regulator of responses to DNA double-strand breaks.
Resumo:
As ameaças à segurança da informação, (INFOSEC) atentam contra a perda da respectiva confidencialidade, integridade e disponibilidade, pelo que as organizações são impelidas a implementar políticas de segurança, quer ao nível físico quer ao nível lógico, utilizando mecanismos específicos de defesa. O projecto Network Air Gap Controller (NAGC) foi concebido no sentido de contribuir para as questões da segurança, designadamente daquelas que se relacionam directamente com a transferência de informação entre redes de classificação de segurança diferenciadas ou de sensibilidades distintas, sem requisitos de comunicação em tempo real, e que mereçam um maior empenho nas condições de robustez, de disponibilidade e de controlo. Os organismos que, em razão das atribuições e competências cometidas, necessitam de fazer fluir informação entre este tipo de redes, são por vezes obrigados a realizar a transferência de dados com recurso a um processo manual, efectuado pelo homem e não pela máquina, que envolve dispositivos amovivéis, como sejam o CD, DVD, PEN, discos externos ou switches manuais. Neste processo, vulgarmente designado por Network Air Gap (NAG), o responsável pela transferência de dados deverá assumir de forma infalível, como atribuições intrínsecas e inalienáveis da função exercida, as garantias do cumprimento de um vasto conjunto de normas regulamentares. As regras estabelecidas desdobram-se em ferramentas e procedimentos que se destinam, por exemplo, à guarda em arquivo de todas as transferências efectuadas; à utilização de ferramentas de segurança (ex: antivírus) antes da colocação da informação na rede de classificação mais elevada; ao não consentimento de transferência de determinados tipos de ficheiro (ex: executáveis) e à garantia de que, em consonância com a autonomia que normalmente é delegada no elemento responsável pela operação das comunicações, apenas se efectuam transferências de informação no sentido da rede de classificação inferior para a rede de classificação mais elevada. Face ao valor da informação e do impacto na imagem deste tipo de organizações, o operador de comunicações que não cumpra escrupulosamente o determinado é inexoravelmente afastado dessas funções, sendo que o processo de apuramento de responsabilidades nem sempre poderá determinar de forma inequívoca se as razões apontam para um acto deliberado ou para factores não intencionais, como a inépcia, o descuido ou a fadiga. Na realidade, as actividades periódicas e rotineiras, tornam o homem propenso à falha e poderão ser incontornavelmente asseguradas, sem qualquer tipo de constrangimentos ou diminuição de garantias, por soluções tecnológicas, desde que devidamente parametrizadas, adaptadas, testadas e amadurecidas, libertando os recursos humanos para tarefas de manutenção, gestão, controlo e inspecção. Acresce que, para este tipo de organizações, onde se multiplicam o número de redes de entrada de informação, com diferentes classificações e actores distintos, e com destinatários específicos, a utilização deste tipo de mecanismos assume uma importância capital. Devido a este factor multiplicativo, impõe-se que o NAGC represente uma opção válida em termos de oferta tecnológica, designadamente para uma gama de produtos de baixíssimo custo e que possa desenvolver-se por camadas de contributo complementar, em função das reais necessidades de cada cenário.
Resumo:
A method to control the speed or the torque of a permanent-magnet direct current motor is presented. The rotor speed and the external torque estimation are simultaneously provided by appropriate observers. The sensorless control scheme is based on current measurement and switching states of power devices. The observer’s performances are dependent on the accurate machine parameters knowledge. Sliding mode control approach was adopted for drive control, providing the suitable switching states to the chopper power devices. Despite the predictable chattering, a convenient first order switching function was considered enough to define the sliding surface and to correspond with the desired control specifications and drive performance. The experimental implementation was supported on a single dsPIC and the controller includes a logic overcurrent protection.
The utilization bound of non-preemptive rate-monotonic scheduling in controller area networks is 25%
Resumo:
Consider a distributed computer system comprising many computer nodes, each interconnected with a controller area network (CAN) bus. We prove that if priorities to message streams are assigned using rate-monotonic (RM) and if the requested capacity of the CAN bus does not exceed 25% then all deadlines are met.