924 resultados para Business Process Model Validation
Resumo:
Eucalyptus plantations occupy almost 20 million ha worldwide and exceed 3.7 million ha in Brazil alone. Improved genetics and silviculture have led to as much as a three-fold increase in productivity in Eucalyptus plantations in Brazil and the large land area occupied by these highly productive ecosystems raises concern over their effect on local water supplies. As part of the Brazil Potential Productivity Project, we measured water use of Eucalyptus grandis x urophylla clones in rainfed and irrigated stands in two plantations differing in productivity. The Aracruz (lower productivity) site is located in the state of Espirito Santo and the Veracel (higher productivity) site in Bahia state. At each plantation, we measured stand water use using homemade sap flow sensors and a calibration curve using the clones and probes we utilized in the study. We also quantified changes in growth, leaf area and water use efficiency (the amount of wood produced per unit of water transpired). Measurements were conducted for 1 year during 2005 at Aracruz and from August through December 2005 at Veracel. Transpiration at both sites was high compared to other studies but annual estimates at Aracruz for the rainfed treatment compared well with a process model calibrated for the Aracruz site (within 10%). Annual water use at Aracruz was 1394 mm in rainfed treatments versus 1779 mm in irrigated treatments and accounted for approximately 67% and 58% of annual precipitation and irrigation inputs respectively. Increased water use in the irrigated stands at Aracruz was associated with higher sapwood area, leaf area index and transpiration per unit leaf area but there was no difference in the response of canopy conductance with air saturation deficit between treatments. Water use efficiency at the Aracruz site was also not influenced by irrigation and was similar to the rainfed treatment. During the period of overlapping measurements, the response to irrigation treatments at the more productive Veracel site was similar to Aracruz. Stand water use at the Veracel site totaled 975 mm and 1102 mm in rainfed and irrigated treatments during the 5-month measurement period respectively. Irrigated stands at Veracel also had higher leaf area with no difference in the response of canopy conductance with air saturation deficit between treatments. Water use efficiency was also unaffected by irrigation at Veracel. Results from this and other studies suggest that improved resource availability does not negatively impact water use efficiency but increased productivity of these plantations is associated with higher water use and should be given consideration during plantation management decision making processes aimed at increasing productivity. Published by Elsevier B.V.
Resumo:
The fast and strong social and economic transformations in the economies of many countries has raised the competition for consumers. One of the elements required to adapt to such scenario is knowing customers and their perceptions about products or services, mainly regarding word of mouth recommendations. This study adapts, to the fast food business, a model originally designed to analyze the antecedents of the intent to recommend by clients of formal restaurants. Three constructs were considered: service quality, satisfaction, and social well-being, the latter comprised of positive and negative affections. Six hypotheses were considered, three of which relating to social well-being (that it influences satisfaction, service quality, and the intent to recommend), two relating to service quality (that in influences the intent to recommend and satisfaction), and one relating to the influence of satisfaction on the intent to recommend. None was rejected, indicating adherence and adjustment of the simplication and adaptation of the consolidated model. Through a successful empirical application, the main contribution made by this research is the simplification of a model through its application in a similar context, but with a different scope.
Resumo:
Abstract Background Recent medical and biological technology advances have stimulated the development of new testing systems that have been providing huge, varied amounts of molecular and clinical data. Growing data volumes pose significant challenges for information processing systems in research centers. Additionally, the routines of genomics laboratory are typically characterized by high parallelism in testing and constant procedure changes. Results This paper describes a formal approach to address this challenge through the implementation of a genetic testing management system applied to human genome laboratory. We introduced the Human Genome Research Center Information System (CEGH) in Brazil, a system that is able to support constant changes in human genome testing and can provide patients updated results based on the most recent and validated genetic knowledge. Our approach uses a common repository for process planning to ensure reusability, specification, instantiation, monitoring, and execution of processes, which are defined using a relational database and rigorous control flow specifications based on process algebra (ACP). The main difference between our approach and related works is that we were able to join two important aspects: 1) process scalability achieved through relational database implementation, and 2) correctness of processes using process algebra. Furthermore, the software allows end users to define genetic testing without requiring any knowledge about business process notation or process algebra. Conclusions This paper presents the CEGH information system that is a Laboratory Information Management System (LIMS) based on a formal framework to support genetic testing management for Mendelian disorder studies. We have proved the feasibility and showed usability benefits of a rigorous approach that is able to specify, validate, and perform genetic testing using easy end user interfaces.
Resumo:
[EN] We apply an inverse model to a hydrographic cruise that completely closes the Canary Islands to investigate their effect on the water masses transports. Most central waters are transported south between the eastern islands and the African coast, with 2.5 Sv out of a total of 3.5 Sv. Intermediate waters are effectively blocked by the islands passages, with Mediterranean/Antarctic waters predominantly found north/south of the islands, and most deep waters loop around the archipelago plateau. A process model upholds the existence of intense two-way exchange between central and intermediate waters along the eastern passage, with vertical velocities of order 10 m s.
Resumo:
Intangible resources have raised the interests of scholars from different research areas due to their importance as crucial factors for firm performance; yet, contributions to this field still lack a theoretical framework. This research analyses the state-of-the-art results reached in the literature concerning intangibles, their main features and evaluation problems and models. In search for a possible theoretical framework, the research draws a kind of indirect analysis of intangibles through the theories of the firm, their critic and developments. The heterodox approaches of the evolutionary theory and resource-based view are indicated as possible frameworks. Based on this theoretical analysis, organization capital (OC) is identified, for its features, as the most important intangible for firm performance. Empirical studies on the relationship intangibles-firm performance have been sporadic and have failed to reach firm conclusions with respect to OC; in the attempt to fill this gap, the effect of OC is tested on a large sample of European firms using the Compustat Global database. OC is proxied by capitalizing an income statement item (Selling, General and Administrative expenses) that includes expenses linked to information technology, business process design, reputation enhancement and employee training. This measure of OC is employed in a cross-sectional estimation of a firm level production function - modeled with different functional specifications (Cobb-Douglas and Translog) - that measures OC contribution to firm output and profitability. Results are robust and confirm the importance of OC for firm performance.
Resumo:
Asset Management (AM) is a set of procedures operable at the strategic-tacticaloperational level, for the management of the physical asset’s performance, associated risks and costs within its whole life-cycle. AM combines the engineering, managerial and informatics points of view. In addition to internal drivers, AM is driven by the demands of customers (social pull) and regulators (environmental mandates and economic considerations). AM can follow either a top-down or a bottom-up approach. Considering rehabilitation planning at the bottom-up level, the main issue would be to rehabilitate the right pipe at the right time with the right technique. Finding the right pipe may be possible and practicable, but determining the timeliness of the rehabilitation and the choice of the techniques adopted to rehabilitate is a bit abstruse. It is a truism that rehabilitating an asset too early is unwise, just as doing it late may have entailed extra expenses en route, in addition to the cost of the exercise of rehabilitation per se. One is confronted with a typical ‘Hamlet-isque dilemma’ – ‘to repair or not to repair’; or put in another way, ‘to replace or not to replace’. The decision in this case is governed by three factors, not necessarily interrelated – quality of customer service, costs and budget in the life cycle of the asset in question. The goal of replacement planning is to find the juncture in the asset’s life cycle where the cost of replacement is balanced by the rising maintenance costs and the declining level of service. System maintenance aims at improving performance and maintaining the asset in good working condition for as long as possible. Effective planning is used to target maintenance activities to meet these goals and minimize costly exigencies. The main objective of this dissertation is to develop a process-model for asset replacement planning. The aim of the model is to determine the optimal pipe replacement year by comparing, temporally, the annual operating and maintenance costs of the existing asset and the annuity of the investment in a new equivalent pipe, at the best market price. It is proposed that risk cost provide an appropriate framework to decide the balance between investment for replacing or operational expenditures for maintaining an asset. The model describes a practical approach to estimate when an asset should be replaced. A comprehensive list of criteria to be considered is outlined, the main criteria being a visà- vis between maintenance and replacement expenditures. The costs to maintain the assets should be described by a cost function related to the asset type, the risks to the safety of people and property owing to declining condition of asset, and the predicted frequency of failures. The cost functions reflect the condition of the existing asset at the time the decision to maintain or replace is taken: age, level of deterioration, risk of failure. The process model is applied in the wastewater network of Oslo, the capital city of Norway, and uses available real-world information to forecast life-cycle costs of maintenance and rehabilitation strategies and support infrastructure management decisions. The case study provides an insight into the various definitions of ‘asset lifetime’ – service life, economic life and physical life. The results recommend that one common value for lifetime should not be applied to the all the pipelines in the stock for investment planning in the long-term period; rather it would be wiser to define different values for different cohorts of pipelines to reduce the uncertainties associated with generalisations for simplification. It is envisaged that more criteria the municipality is able to include, to estimate maintenance costs for the existing assets, the more precise will the estimation of the expected service life be. The ability to include social costs enables to compute the asset life, not only based on its physical characterisation, but also on the sensitivity of network areas to social impact of failures. The type of economic analysis is very sensitive to model parameters that are difficult to determine accurately. The main value of this approach is the effort to demonstrate that it is possible to include, in decision-making, factors as the cost of the risk associated with a decline in level of performance, the level of this deterioration and the asset’s depreciation rate, without looking at age as the sole criterion for making decisions regarding replacements.
Resumo:
The control of a proton exchange membrane fuel cell system (PEM FC) for domestic heat and power supply requires extensive control measures to handle the complicated process. Highly dynamic and non linear behavior, increase drastically the difficulties to find the optimal design and control strategies. The objective is to design, implement and commission a controller for the entire fuel cell system. The fuel cell process and the control system are engineered simultaneously; therefore there is no access to the process hardware during the control system development. Therefore the method of choice was a model based design approach, following the rapid control prototyping (RCP) methodology. The fuel cell system is simulated using a fuel cell library which allowed thermodynamic calculations. In the course of the development the process model is continuously adapted to the real system. The controller application is designed and developed in parallel and thereby tested and verified against the process model. Furthermore, after the commissioning of the real system, the process model can be also better identified and parameterized utilizing measurement data to perform optimization procedures. The process model and the controller application are implemented in Simulink using Mathworks` Real Time Workshop (RTW) and the xPC development suite for MiL (model-in-theloop) and HiL (hardware-in-the-loop) testing. It is possible to completely develop, verify and validate the controller application without depending on the real fuel cell system, which is not available for testing during the development process. The fuel cell system can be immediately taken into operation after connecting the controller to the process.
Resumo:
Programa de doctorado: Administración y dirección de empresas. La fecha de publicación es la fecha de lectura
Resumo:
Il lavoro tratta l’applicazione di due progetti di Reengineering, in un caso l’obiettivo era quello di ottimizzare il processo di fatturazione passiva di un’azienda operante nel settore della ceramica, nell’altro quello di supportare un Gruppo, operante nel settore logistico, nella valutare l’opportunità di accentramento dei servizi ICT, mitigando gli impatti derivati dai possibili cambiamenti. Questo lavoro è stato preparato durante un periodo di Stage della durata di sei mesi effettuato presso la società di consulenza Revision SRL. Nella prima parte della tesi, attraverso un’analisi della letteratura di riferimento, si sono indagati i principali fattori che interagiscono in un processo di Change management, si è anche effettuato un approfondimento delle tematiche di Business Process Reengineering, i cui principi hanno guidato l’intervento effettuato. La ricerca ha teso ad evidenziare da un lato le radici e gli elementi innovativi che contraddistinguono questo approccio metodologico e dall’altro a sottolineare le possibili cause di insuccesso di un progetto di BPR. La sezione si conclude con la formalizzazione delle metodologia e degli strumenti utilizzati nella conduzione dei progetti. Nella seconda parte del lavoro, insieme alla descrizione del primo caso vengono presentate le varie fasi della riprogettazione, dalla analisi della situazione iniziale, effettuata tramite un questionario e delle interviste dirette al personale addetto, alla identificazione delle criticità, fino alla presentazione e alla valutazione delle nuove configurazioni del processo. Il lavoro è arricchito dall’analisi e dall’applicazione delle tecnologie informatiche/informative di supporto alla nuova configurazione descritta. Nella terza parte, a completamento dell’elaborato, viene presentato il secondo progetto analizzato dove, dopo una fase di analisi della situazione iniziale ancora tramite questionario ed interviste dirette, si riportano le considerazioni fatte in merito alla possibilità di accentramento dei servizi ICT del gruppo analizzato.
Resumo:
Il presente lavoro di tesi ha come punto focale la descrizione, la verifica e la dimostrazione della realizzabilità dei Workflow Patterns di Gestione del Flusso(Control-Flow) e Risorse (Resource) definiti da parte della Workflow Pattern Initiative (WPI)in JOLIE, un innovativo linguaggio di programmazione orientato ai servizi nato nell'ambito del Service Oriented Computing. Il Service Oriented Computing (SOC) è un nuovo modo di pensare la programmazione di applicazioni distribuite, i cui concetti fondamentali sono i servizi e la composizione. L’approccio SOC definisce la possibilità di costruire un’applicazione in funzione dei servizi che ne realizzano il comportamento tramite una loro composizione, definita secondo un particolare flusso di lavoro. Allo scopo di fornire la necessaria conoscenza per capire la teoria, le meccaniche e i costrutti di JOLIE utilizzati per la realizzazione dei pattern, il seguente lavoro di tesi è stato diviso in quattro parti, corrispondenti ad altrettanti capitoli. Nel primo capitolo viene riportata una descrizione generale del SOC e della Business Process Automation (BPA), che costituisce l’ambiente in cui il SOC è inserito. Per questo viene fatta una disamina della storia informatica sui sistemi distribuiti, fino ad arrivare ai sistemi odierni, presentando in seguito il contesto del BPA e delle innovazioni derivanti dalle sue macro-componenti, di cui il SOC fa parte. Continuando la descrizione dell’approccio Service Oriented, ne vengono presentati i requisiti (pre-condizioni) e si cerca di dare una definizione precisa del termine “servizio”, fino all'enunciazione dei principi SOC declinati nell’ottica delle Service Oriented Architectures, presentando in ultimo i metodi di composizione dei servizi, tramite orchestrazione e coreografia. L’ultima sezione del capitolo prende in considerazione il SOC in un’ottica prettamente industriale e ne evidenzia i punti strategici. Il secondo capitolo è incentrato sulla descrizione di JOLIE, gli aspetti fondamentali dell’approccio orientato ai servizi, che ne caratterizzano profondamente la definizione concettuale (SOCK), e la teoria della composizione dei servizi. Il capitolo non si pone come una descrizione esaustiva di tutte le funzionalità del linguaggio, ma considera soprattutto i concetti teorici, le strutture di dati, gli operatori e i costrutti di JOLIE utilizzati per la dimostrazione della realizzabilità dei Workflow Pattern del capitolo successivo. Il terzo capitolo, più lungo e centrale rispetto agli altri, riguarda la realizzazione dei workflow pattern in JOLIE. All'inizio del capitolo viene fornita una descrizione delle caratteristiche del WPI e dei Workflow Pattern in generale. In seguito, nelle due macro-sezioni relative ai Control-Flow e Resource pattern vengono esposte alcune nozioni riguardanti le metodologie di definizione dei pattern (e.g. la teoria sulla definizione delle Colored Petri Nets) e le convezioni adottate dal WPI, per passare in seguito al vero e proprio lavoro (sperimentale) di tesi riguardo la descrizione dei pattern, l’analisi sulla loro realizzabilità in JOLIE, insieme ad un codice di esempio che esemplifica quanto affermato dall'analisi. Come sommario delle conclusioni raggiunte sui pattern, alla fine di ognuna delle due sezioni definite in precedenza, è presente una scheda di valutazione che, con lo stesso metodo utilizzato e definito dalla WPI, permette di avere una rappresentazione generale della realizzabilità dei pattern in JOLIE. Il quarto capitolo riguarda gli esiti tratti dal lavoro di tesi, riportando un confronto tra le realizzazioni dei pattern in JOLIE e le valutazioni del WPI rispetto agli altri linguaggi da loro considerati e valutati. Sulla base di quanto ottenuto nel terzo capitolo vengono definite le conclusioni del lavoro portato avanti sui pattern e viene delineato un’eventuale scenario riguardante il proseguimento dell’opera concernente la validazione ed il completamento della studio. In ultimo vengono tratte alcune conclusioni sia riguardo JOLIE, nel contesto evolutivo del linguaggio e soprattutto del progetto open-source che è alla sua base, sia sul SOC, considerato nell’ambito del BPA e del suo attuale ambito di sviluppo dinamico.
Resumo:
Il lavoro tratta la progettazione di un intervento tecnologico e organizzativo in grado di guidare la creazione di un ecosistema di imprese per un distretto commerciale: Centergross (Funo d’Argelato, Bologna). Tale lavoro è stato preparato durante un periodo di Stage della durata di cinque mesi effettuato presso Epoca S.r.l (Bologna) a seguito della necessità, riscontrata dalla direzione del distretto, di ripensare il proprio modello di business. L’obiettivo del progetto di intervento di Epoca è quello di supportare il distretto in questa fase di cambiamento, da “condominio” di imprese autonome a ecosistema, grazie all’identificazione e alla realizzazione di strumenti organizzativi e tecnologici che possano costruire opportunità di sinergie, aumentare la completezza dell’offerta e sfruttare economie di scopo. Per questo è stato realizzato un nuovo sistema informatico (social network e applicazione mobile) in grado di supportare la strategia ed evolvere con essa. La tesi si struttura in tre parti. Nella prima parte, attraverso un’indagine della letteratura di riferimento, si sono indagati i principali modelli di cambiamento organizzativo e il ruolo dei sistemi informativi all’interno delle organizzazione. Un approfondimento circa gli approcci, i processi e la gestione del cambiamento in relazione all’introduzione di un nuovo sistema informativo all’interno delle organizzazioni con riferimento alle tematiche del Business Process Reengineering. La seconda parte è dedicata all’evoluzione del Web con la rivoluzione culturale causata dagli strumenti del web partecipativo, semantico e potenziato: social network e applicazione mobile nello specifico; e all’approccio di progettazione: il Design Thinking. Una tecnica che si prefigge di: trovare il miglior fit fra obiettivi, risorse e tecnologie disponibili; favorire lo sviluppo di nuove idee innovative entrando in empatia con il contesto del problema proponendo soluzioni centrate sui bisogni degli utenti. L’ultima parte del lavoro consiste nella descrizione del caso. Vengono presentate la fase di analisi della situazione attuale e i successivi step di progettazione del sistema informatico: la definizione dei prototipi, la popolazione del database, il modello di dominio, le interfacce utente e le esperienze di navigazione all’interno della piattaforma software proposta. L’approccio prevede che il progetto proceda per iterazioni successive e un adattamento continuo alle esigenze del cliente.
Resumo:
Das Glaukom ist eine der führenden Erblindungsursachen weltweit. Trotzdem ist die Pathogenese, die zur Degeneration der retinalen Ganglienzellen führt, bisher nicht verstanden. In den letzten Jahren ergaben sich verschiedene Hinweise auf die Beteiligung einer immunologischen Komponente. Thema dieser Arbeit waren elektrophysiologische Untersuchungen, im Sinne von visuell evozierten Potentialen, am Tiermodell des Experimentellen Autoimmun Glaukoms und die Etablierung dieses Modells. Das Modell basiert auf einer Immunisierung von Lewisratten mit Pertussistoxin, inkompletten Freunds Adjuvant und potentiellen Antigenen, die zu einer Immunreaktion und einem Verlust von retinalen Ganglienzellen führen sollen. Zur Etablierung des Experimentellen Autoimmun Glaukom Modells wurde eine fünfwöchige Studie mit vier Gruppen durchgeführt. Als Antigene wurden Glia fibrilläres saures Protein (n= 10) und Myelin basisches Protein (n=10) verwendet, die beide in Studien zu Serum- und Kammerwasseranalysen bei Glaukompatienten eine Abweichung zur Kontrollgruppe gezeigt hatten. Außerdem wurde eine Gruppe mit selbst hergestelltem Sehnerv-Homogenat (n=12) immunisiert. Eine Gruppe erhielt keine Immunisierung und diente als Kontrolle (n=10). Zur Überprüfung der Effekte des Modells dienten verschiedene Untersuchungsmethoden, wie die Augeninnendruckmessung und die Untersuchung der Fundi. Des Weiteren wurden transiente und stationäre visuell evozierte Potentiale abgeleitet und die Latenzen, Amplituden und die Marker S (Steigung) und TR (Temporale Antworten) verglichen. Außerdem erfolgte nach Tötung der Tiere die Entnahme der Gehirne und Augen. Die Gehirne wurden nach Paraffineinbettung geschnitten, mit Luxol Fast Blue und Kresylviolett gefärbt und hinsichtlich etwaiger Entmarkungsherde oder anderer Pathologien unter dem Mikroskop bewertet. Der Verlauf des intraokulären Drucks zeigte sowohl zwischen den Gruppen als auch zwischen den verschiedenen Zeitpunkten keine signifikanten Unterschiede. Er bewegte sich im physiologischen Bereich mit durchschnittlich circa 12 mmHg. Die Funduskopien lieferten zu keinem Zeitpunkt krankhafte Veränderungen. Auch die visuell evozierten Potentiale lieferten zwischen den Gruppen keine signifikanten Unterschiede, sondern belegten normale visuelle Funktion bei allen Tieren. Die Auswertung der histologischen Untersuchung der Hirnschnitte zeigte keine Entmarkungsherde. Die erzielten Ergebnisse dieser Arbeit legen nahe, dass der retinale Ganglienzellverlust beim Experimentellen Autoimmun Glaukom Modell ohne eine Augeninnendruckerhöhung stattfindet. Die Fundusuntersuchung und die visuell evozierten Potentiale, wie in diesem Versuchsaufbau durchgeführt, scheinen nicht sensibel genug zu sein, diese Verluste nachzuweisen. In weiteren Arbeiten sollten andere Methoden zum Nachweis der retinalen Ganglienzellverluste erprobt werden. Neben elektrophysiologischen Methoden bieten sich für das weitere Vorgehen besonders immunhistologische Methoden an. Außerdem sollten die Mechanismen erforscht werden durch die es nach der Immunisierung zur Apoptose von retinalen Ganglienzellen kommt und welche Antikörper dazuführen können. Des Weiteren ist von Interesse, ob und wie eine zelluläre Komponente an der Pathogenese des Experimentellen Autoimmun Glaukoms beteiligt ist.
Resumo:
Environmental computer models are deterministic models devoted to predict several environmental phenomena such as air pollution or meteorological events. Numerical model output is given in terms of averages over grid cells, usually at high spatial and temporal resolution. However, these outputs are often biased with unknown calibration and not equipped with any information about the associated uncertainty. Conversely, data collected at monitoring stations is more accurate since they essentially provide the true levels. Due the leading role played by numerical models, it now important to compare model output with observations. Statistical methods developed to combine numerical model output and station data are usually referred to as data fusion. In this work, we first combine ozone monitoring data with ozone predictions from the Eta-CMAQ air quality model in order to forecast real-time current 8-hour average ozone level defined as the average of the previous four hours, current hour, and predictions for the next three hours. We propose a Bayesian downscaler model based on first differences with a flexible coefficient structure and an efficient computational strategy to fit model parameters. Model validation for the eastern United States shows consequential improvement of our fully inferential approach compared with the current real-time forecasting system. Furthermore, we consider the introduction of temperature data from a weather forecast model into the downscaler, showing improved real-time ozone predictions. Finally, we introduce a hierarchical model to obtain spatially varying uncertainty associated with numerical model output. We show how we can learn about such uncertainty through suitable stochastic data fusion modeling using some external validation data. We illustrate our Bayesian model by providing the uncertainty map associated with a temperature output over the northeastern United States.
Resumo:
La tesi presenta delle metodologie per l'analisi e il miglioramento dei processi, con particolare riferimento all'applicazione del BPR - Business Process Reengineering all'interno di un contesto aziendale reale. L'obiettivo principale è lo sviluppo di una mappatura dei processi attuali in Tema Sinergie e l'analisi delle principali criticità evidenziate dal suddetto lavoro. Infine, si evidenzia come la progettazione e l'integrazione di un sistema CRM, per la gestione dei servizi post-vendita, possa portare notevoli benefici in termini di costi, tempi e livello di servizio fornito al cliente.
Resumo:
L’avanzare delle tecnologie ICT e l’abbattimento dei costi di produzione hanno portato ad un aumento notevole della criminalità informatica. Tuttavia il cambiamento non è stato solamente quantitativo, infatti si può assistere ad un paradigm-shift degli attacchi informatici da completamente opportunistici, ovvero senza un target specifico, ad attacchi mirati aventi come obiettivo una particolare persona, impresa o nazione. Lo scopo della mia tesi è quello di analizzare modelli e tassonomie sia di attacco che di difesa, per poi valutare una effettiva strategia di difesa contro gli attacchi mirati. Il lavoro è stato svolto in un contesto aziendale come parte di un tirocinio. Come incipit, ho effettuato un attacco mirato contro l’azienda in questione per valutare la validità dei sistemi di difesa. L’attacco ha avuto successo, dimostrando l’inefficacia di moderni sistemi di difesa. Analizzando i motivi del fallimento nel rilevare l’attacco, sono giunto a formulare una strategia di difesa contro attacchi mirati sotto forma di servizio piuttosto che di prodotto. La mia proposta è un framework concettuale, chiamato WASTE (Warning Automatic System for Targeted Events) il cui scopo è fornire warnings ad un team di analisti a partire da eventi non sospetti, ed un business process che ho nominato HAZARD (Hacking Approach for Zealot Attack Response and Detection), che modella il servizio completo di difesa contro i targeted attack. Infine ho applicato il processo all’interno dell’azienda per mitigare minacce ed attacchi informatici.