742 resultados para Cloud Computing Modelli di Business
Resumo:
Obiettivi. Lo scopo di questo studio è di confrontare la mortalità e l’incidenza per tutte le cause, tutti i tumori, tumori specifici e per le cause non neoplastiche, in una coorte dei lavoratori impiegati nel cantiere navale di Monfalcone (GO) tra il 1974 e il 1994, con quella della popolazione generale della regione FVG e d’Italia. L’obiettivo è eseguire tali confronti considerando il livello di esposizione ad amianto, la durata di esposizione (in anni) precedente al 1985, il periodo di prima assunzione, quali principali indicatori di esposizione occupazionale ad asbesto. Obiettivo secondario è quello di contribuire alla conoscenza circa la correlazione tra esposizione ad asbesto e l’incidenza di tumori nelle principali sedi digestive. Metodi. Tramite metodo indiretto sono stati calcolati SIR (periodo 1995-2009) e SMR (periodo 1995-2012) per tumore maligno della pleura, tumore di trachea bronchi e polmone, per tutti i tumori e per malattie non neoplastiche. È stato condotto uno studio caso- controllo nested per la stima degli gli ORs rispettivamente per tumore maligno della pleura e del polmone. Sono stati applicati modelli di Poisson per la stima degli IRRs riguardanti le principali sedi digestive, utilizzando quali variabili esplicative: a) il rischio di esposizione ad asbesto legato alla mansione e b) il numero di anni di esposizione precedenti al 1985. Risultati. Nell’intera coorte (5582 uomini) gli SMR indicavano un eccesso di mortalità per tumore maligno della pleura incrementato rispettivamente di circa 7 volte (SMR= 7,03; IC95% 5,61-8,79) e di poco più di 14 volte (SMR= 14,20; IC95% 11,33-17,75) rispettivamente quando il confronto è stato fatto con la popolazione standard del FVG e dell’Italia. L’aumento della mortalità per tumore maligno della pleura risulta fortemente aumentato in tutte le stratificazioni. Gli SMR per il tumore di trachea, bronchi e polmone sono risultati essere prossimi all'unità quando le analisi sono state eseguite nell’intera coorte, mentre risultano aumentati in modo significativo rispetto alla popolazione generale quando calcolati nei soggetti a rischio medio e assunti presso i cantieri navali di Monfalcone prima del 1974 (SMR= 1,38 95%CI 1,00-1,85) e nei soggetti classificati a rischio medio e assunti nel periodo 1985-1994 (SMR= 4,88 95%CI 1,00-14,25). Analogamente, nell’intera coorte, i SIR per tumore maligno della pleura calcolati nell’intera coorte erano aumentati di oltre 7 volte (SIR= 7,65; IC95% 6,19-9,49), mentre l’incidenza del tumore di trachea bronchi e polmone non vede incrementi rispetto alla popolazione di riferimento. Coloro che hanno avuto una durata di esposizione maggiore di 30 anni prima del 1985 dimostrano un aumento dell’incidenza di tumore di trachea, bronchi e polmone (SIR=1,34 IC95% 1,00-1,77), statisticamente significativo, così come per coloro che son stati classificati a rischio medio di esposizione e assunti precedentemente al 1974 (SIR=1,46 IC95% 1,06-1,95) e per coloro che sono stati classificati ad alto rischio e assunti nel periodo 1985-1994 (SIR=5,68 IC95% 1,17-16,60). Nell’intera coorte si registra un significativo aumento di incidenza di tumore dello stomaco in coloro classificati a alto rischio (SIR= 1,47 IC95% 1,05-2,00), mentre l’incidenza di tumore del pancreas vede un incremento dell’incidenza in coloro classificati a medio rischio di esposizione ad asbesto (SIR= 2,21 IC95% 1,21-3,72). Il sottogruppo le cui informazioni risultavano mancanti mostrano un incremento del SIR, borderline ma non significativo, per tumore del colon-retto (SIR= 1,29 IC95% 0,94-1,73). Emerge un significativo aumento dell’incidenza del tumore dello stomaco in coloro con un periodo di esposizione precedente al 1985 compreso tra 10 e 20 anni (SIR= 1,71 IC95% 1,12-2,49). Anche i SIR per il tumore del pancreas vedono un incremento statisticamente significativo in coloro che hanno una durata di esposizione precedente al 1985 inferiore a 10 anni e maggiore di 30: rispettivamente i SIR sono stati di 2,23 (IC95% 1,07-4,10) e 2,57 (IC95% 1,53-4,07). I risultati relativi ai confronti interni non mostrano significatività statistica. Conclusioni. I risultati indicano che nella coorte degli uomini ex- lavoratori dei cantieri navali di Monfalcone vi era un incremento forte e statisticamente significativo della mortalità e dell’incidenza di tumore maligno della pleura rispetto sia alla popolazione generale del FVG sia a quella dell’Italia. Eccessi di mortalità ed incidenza sono stati rilevati talvolta anche per il tumore di trachea, bronchi e polmone, quando le analisi sono state condotte stratificando la coorte in gruppi omogenei di rischio. Il più elevato eccesso rispetto all’atteso sia della mortalità per tumore maligno della pleura e del tumore del polmone, che dell’incidenza, si osservava nei lavoratori con mansioni a rischio medio, seguito dal gruppo con mansioni a rischio elevato. I Risultati riguardanti l’incidenza dei tumori delle principali sedi digestive ha visto nell’intera coorte un aumento significativo dei SIR per tumore dello stomaco e del pancreas, anche quando condotti per sottogruppi. Tuttavia le stime relative agli outcome diversi dal tumore maligno della pleura e del tumore del polmone devono essere interpretate con cautela. Le associazioni positive riscontrate tramite confronti interni non presentano significatività statistica.
Resumo:
Sono stati introdotti i principali fluidi isolanti utilizzati in elettrotecnica, differenziandoli per strutture molecolari e proprietà dielettriche e spettroscopiche caratteristiche. Sono stati analizzati i diversi meccanismi di polarizzazione elettrica, polarizzabilità delle molecole e modelli di campo in un dipolo molecolare proposti da alcuni ricercatori ed analizzate le perdite dielettriche che compaiono negli oli isolanti elettrici principali, suddividendole per perdite dipolari, da cui il confronto fra diversi modelli teorici, e perdite dovute alla conduzione ionica di portatori di carica mobili.
Resumo:
Da qualche anno gli standard di posti letto ospedalieri tendono a ridursi. È in corso un processo di ristrutturazione e riorganizzazione dell’azione ospedaliera che trova le sue ragioni nella necessità di calare la spesa del servizio sanitario. Questo fatto porta alla conclusione che la risorsa “posti letto” stia diventando sempre di più una risorsa limitata, che necessiti di una gestione attenta, precisa e ponderata. Da un punto di vista manageriale, capire le inefficienze e i modi in cui questa risorsa si interfaccia con la restante realtà ospedaliera è cruciale per poter attuare giuste politiche sanitarie. L’obiettivo di questa tesi consiste nella valutazione delle specifiche per la costruzione di un modello da applicare al sistema sanitario emiliano-romagnolo, compiendo una gap analysis su dati ufficiali forniti direttamente dal SS dell’Emilia-Romagna. Per la creazione del modello applicato ai posti letto ospedalieri il lavoro è proceduto prendendo in considerazione l’attuale modello in uso in regione [3] “Pianificazione tattica delle sale operatorie: un modello di ottimizzazione in ambito regionale. Margherita Vitali. 2014”. La creazione del modello oggetto di questa tesi è avvenuta attraverso l’ampliamento del modello [3]. Le modifiche proposte hanno avuto come scopo l’ottenimento di un modello dipendente dalla risorsa posti letto a valle delle sale operatorie. I vincoli aggiuntivi conferiscono una maggiore completezza al modello [3] ampliandone le vedute sulla filiera ospedaliera.
Resumo:
L'elaborato tratterà, in linea teorica e successivamente con un esempio pratico, il tema della strategia di costo basata sulla leadership di costo. La prima parte vedrà partirà da una linea ampia, al fine di chiarire al meglio cosa sia una strategia aziendale e come essa vada implementata,si restringerà poi andandosi a focalizzare con particolare attenzione su come applicare tale strategia nei mercati di beni durevoli, beni il cui consumo viene ripetuto nel tempo. L'analisi vedrà in particolare, li strumenti, i metodi aziendali e la filosofia per far si che tale strategia diventi più che competitiva nei mercati individuati. Si analizzerà inoltre brevemente il caso di Ikea, leader mondiale della produzione e distribuzione di mobili, la quale ha posto il suo modello di business proprio sulla Leadership di costo. La seconda parte vedrà un caso pratico: come tale strategia è stata implementata e utilizzata nel contesto del business game, una simulazione di un mercato proprio di beni durevoli, lavatrici e asciugabiancherie. L'analisi verterà sulla squadra Freedinelli che ha conseguito buoni risultati attraverso tale strategia. Infine verranno tratte delle conclusioni sulla convenienza ad utilizzare tale strategia, in quali casi sia più conveniente farlo e come farlo al meglio.
Resumo:
La maggior parte dei mercati sono ormai caratterizzati da una elevata incertezza e da una bassa stabilità per quanto riguarda sia il progresso tecnologico che i bisogni e le richieste dei clienti; l’unica arma che le aziende possiedono per fare fronte alla mutabilità intrinseca dei contesti in cui operano è il continuo rinnovo dei prodotti e dei processi. Possiamo vedere l’innovazione, all’interno di un contesto aziendale, come il risultato di diversi fattori: l’evoluzione delle opportunità tecnologiche di prodotto e di processo, i nuovi modelli di impresa, i nuovi valori che si affermano nella società, i nuovi bisogni dei mercati. La prima parte di questa tesi è incentrata sulla descrizione della natura dell’innovazione, delle sue diverse applicazioni all’interno di un contesto aziendale e delle logiche di funzionamento delle aree aziendali preposte alla gestione dei progetti innovativi. Nella seconda parte si entra più nel dettaglio trattando alcuni aspetti distintivi dell’attività innovativa all’interno del mercato degli elettrodomestici ed analizzando uno specifico caso reale. La scelta della focalizzazione sul mercato degli elettrodomestici non è casuale, infatti la terza e ultima parte di questa trattazione è costituita dalla descrizione dell’attività svolta all’interno del Laboratorio di Gestione Aziendale (Business Game) seguito durante il primo semestre di quest’anno e che ha riguardato la simulazione della gestione di un’azienda produttrice di lavatrici e asciugabiancheria.
Resumo:
Questo elaborato si pone l’obiettivo di dimensionare un prototipo di macchina aggraffatrice, utilizzata per creare la giunzione tra il fondo del barattolo, il corpo del barattolo stesso e la testa o cupola. La progettazione, in particolare, ha richiesto anche la verifica dei motori necessari alla movimentazione della macchina, con particolare attenzione alla fase di arresto di emergenza, in cui le inerzie in gioco risultano essere elevate e la durata del transitorio molto breve. Viene descritta la macchina nel dettaglio, focalizzandosi sulle principali caratteristiche che la rendono peculiare, procedendo poi con la costruzione di un modello cinematico complessivo, seguita dall’analisi cinematica del sistema. Si focalizza, in seguito, sul transitorio durante l’arresto di emergenza e, di conseguenza, sulla verifica dei motori, riducendo i modelli di ciascun sottogruppo della macchina all’albero motore. Il transitorio di emergenza viene analizzato anche con un secondo metodo, dove il dimensionamento del motore viene verificato con l’utilizzo di un software appositamente studiato per la scelta di servomotori. Confronto dei risultati ottenuti
Resumo:
La tesi tratta dell'analisi e della riprogettazione dei processi in un'azienda di global service. Vengono pertanto illustrati le principali metodologie e teorie riguardanti il process management e gli strumenti di supporto più utilizzati per la modellazione dei processi. Viene inoltre presentato il caso riguardante l'azienda ACR SpA, in cui si è eseguita la riprogettazione dei processi critici al fine di migliorare sensibilmente i principali parametri di performance del sistema. Tale riprogettazione è stata finalizzata all'introduzione di un sistema di document management all'interno delle principali funzioni aziendali, grazie a cui si è potuto razionalizzare e automatizzare i processi ritenuti critici ottenendo una sensibile riduzione dei relativi lead time e costi di processo, quantificata attraverso KPI definiti ad hoc. In conclusione la tesi ha permesso di illustrare con un caso pratico l'applicazione degli strumenti di business process reengineering, evidenziandone i pregi e ribadendo l'importanza della continua ricerca di efficienza all'interno dei processi di business aziendali.
Resumo:
We present the results of a study that collected, compared and analyzed the terms and conditions of a number of cloud services vis-a-vis privacy and data protection. First, we assembled a list of factors that comprehensively capture cloud companies' treatment of user data with regard to privacy and data protection; then, we assessed how various cloud services of different types protect their users in the collection, retention, and use of their data, as well as in the disclosure to law enforcement authorities. This commentary provides comparative and aggregate analysis of the results.
Resumo:
Cybercrime and related malicious activity in our increasingly digital world has become more prevalent and sophisticated, evading traditional security mechanisms. Digital forensics has been proposed to help investigate, understand and eventually mitigate such attacks. The practice of digital forensics, however, is still fraught with various challenges. Some of the most prominent of these challenges include the increasing amounts of data and the diversity of digital evidence sources appearing in digital investigations. Mobile devices and cloud infrastructures are an interesting specimen, as they inherently exhibit these challenging circumstances and are becoming more prevalent in digital investigations today. Additionally they embody further characteristics such as large volumes of data from multiple sources, dynamic sharing of resources, limited individual device capabilities and the presence of sensitive data. These combined set of circumstances make digital investigations in mobile and cloud environments particularly challenging. This is not aided by the fact that digital forensics today still involves manual, time consuming tasks within the processes of identifying evidence, performing evidence acquisition and correlating multiple diverse sources of evidence in the analysis phase. Furthermore, industry standard tools developed are largely evidence-oriented, have limited support for evidence integration and only automate certain precursory tasks, such as indexing and text searching. In this study, efficiency, in the form of reducing the time and human labour effort expended, is sought after in digital investigations in highly networked environments through the automation of certain activities in the digital forensic process. To this end requirements are outlined and an architecture designed for an automated system that performs digital forensics in highly networked mobile and cloud environments. Part of the remote evidence acquisition activity of this architecture is built and tested on several mobile devices in terms of speed and reliability. A method for integrating multiple diverse evidence sources in an automated manner, supporting correlation and automated reasoning is developed and tested. Finally the proposed architecture is reviewed and enhancements proposed in order to further automate the architecture by introducing decentralization particularly within the storage and processing functionality. This decentralization also improves machine to machine communication supporting several digital investigation processes enabled by the architecture through harnessing the properties of various peer-to-peer overlays. Remote evidence acquisition helps to improve the efficiency (time and effort involved) in digital investigations by removing the need for proximity to the evidence. Experiments show that a single TCP connection client-server paradigm does not offer the required scalability and reliability for remote evidence acquisition and that a multi-TCP connection paradigm is required. The automated integration, correlation and reasoning on multiple diverse evidence sources demonstrated in the experiments improves speed and reduces the human effort needed in the analysis phase by removing the need for time-consuming manual correlation. Finally, informed by published scientific literature, the proposed enhancements for further decentralizing the Live Evidence Information Aggregator (LEIA) architecture offer a platform for increased machine-to-machine communication thereby enabling automation and reducing the need for manual human intervention.
Resumo:
L’obiettivo della presente tesi è evidenziare l’importanza dell’approccio critico alla valutazione della vulnerabilità sismica di edifici in muratura e misti Il contributo della tesi sottolinea i diversi risultati ottenuti nella modellazione di tre edifici esistenti ed uno ipotetico usando due diversi programmi basati sul modello del telaio equivalente. La modellazione delle diverse ipotesi di vincolamento ed estensione delle zone rigide ha richiesto la formulazione di quattro modelli di calcolo in Aedes PCM ed un modello in 3muri. I dati ottenuti sono stati confrontati, inoltre, con l’analisi semplificata speditiva per la valutazione della vulnerabilità a scala territoriale prevista nelle “Linee Guida per la valutazione e riduzione del rischio sismico del Patrimonio Culturale”. Si può notare che i valori ottenuti sono piuttosto diversi e che la variabilità aumenta nel caso di edifici non regolari, inoltre le evidenze legate ai danni realmente rilevati sugli edifici mostrano un profondo iato tra la previsione di danno ottenuta tramite calcolatore e le lesioni rilevate; questo costituisce un campanello d’allarme nei confronti di un approccio acritico nei confronti del mero dato numerico ed un richiamo all’importanza del processo conoscitivo. I casi di studio analizzati sono stati scelti in funzione delle caratteristiche seguenti: il primo è una struttura semplice e simmetrica nelle due direzioni che ha avuto la funzione di permettere di testare in modo controllato le ipotesi di base. Gli altri sono edifici reali: il Padiglione Morselli è un edificio in muratura a pianta a forma di C, regolare in pianta ed in elevazione solamente per quanto concerne la direzione y: questo ha permesso di raffrontare il diverso comportamento dei modelli di calcolo nelle sue direzioni; il liceo Marconi è un edificio misto in cui elementi in conglomerato cementizio armato affiancano le pareti portanti in muratura, che presenta un piano di copertura piuttosto irregolare; il Corpo 4 dell’Ospedale di Castelfranco Emilia è un edificio in muratura, a pianta regolare che presenta le medesime irregolarità nel piano sommitale del precedente. I dati ottenuti hanno dimostrato un buon accordo per la quantificazione dell’indice di sicurezza per i modelli regolari e semplici con uno scarto di circa il 30% mentre il delta si incrementa per le strutture irregolari, in particolare quando le pareti portanti in muratura vengono sostituite da elementi puntuali nei piani di copertura arrivando a valori massimi del 60%. I confronti sono stati estesi per le tre strutture anche alla modellazione proposta dalle Linee Guida per la valutazione dell’indice di sicurezza sismica a scala territoriale LV1 mostrando differenze nell’ordine del 30% per il Padiglione Morselli e del 50% per il Liceo Marconi; il metodo semplificato risulta correttamente cautelativo. È, quindi, possibile affermare che tanto più gli edifici si mostrano regolari in riferimento a masse e rigidezze, tanto più la modellazione a telaio equivalente restituisce valori in accordo tra i programmi e di più immediata comprensione. Questa evidenza può essere estesa ad altri casi reali divenendo un vero e proprio criterio operativo che consiglia la suddivisione degli edifici esistenti in muratura, solitamente molto complessi poiché frutto di successive stratificazioni, in parti più semplici, ricorrendo alle informazioni acquisite attraverso il percorso della conoscenza che diviene in questo modo uno strumento utile e vitale. La complessità dell’edificato storico deve necessariamente essere approcciata in una maniera più semplice identificando sub unità regolari per percorso dei carichi, epoca e tecnologia costruttiva e comportamento strutturale dimostrato nel corso del tempo che siano più semplici da studiare. Una chiara comprensione del comportamento delle strutture permette di agire mediante interventi puntuali e meno invasivi, rispettosi dell’esistente riconducendo, ancora una volta, l’intervento di consolidamento ai principi propri del restauro che includono i principi di minimo intervento, di riconoscibilità dello stesso, di rispetto dei materiali esistenti e l’uso di nuovi compatibili con i precedenti. Il percorso della conoscenza diviene in questo modo la chiave per liberare la complessità degli edifici storici esistenti trasformando un mero tecnicismo in una concreta operazione culturale . Il presente percorso di dottorato è stato svolto in collaborazione tra l’Università di Parma, DICATeA e lo Studio di Ingegneria Melegari mediante un percorso di Apprendistato in Alta Formazione e Ricerca.
Resumo:
The enormous potential of cloud computing for improved and cost-effective service has generated unprecedented interest in its adoption. However, a potential cloud user faces numerous risks regarding service requirements, cost implications of failure and uncertainty about cloud providers' ability to meet service level agreements. These risks hinder the adoption of cloud. We extend the work on goal-oriented requirements engineering (GORE) and obstacles for informing the adoption process. We argue that obstacles prioritisation and their resolution is core to mitigating risks in the adoption process. We propose a novel systematic method for prioritising obstacles and their resolution tactics using Analytical Hierarchy Process (AHP). We provide an example to demonstrate the applicability and effectiveness of the approach. To assess the AHP choice of the resolution tactics we support the method by stability and sensitivity analysis. Copyright 2014 ACM.
Resumo:
Доклад, поместен в сборника на Националната конференция "Образованието в информационното общество", Пловдив, май, 2012 г.
Resumo:
Work on human self-Awareness is the basis for a framework to develop computational systems that can adaptively manage complex dynamic tradeoffs at runtime. An architectural case study in cloud computing illustrates the framework's potential benefits.
Resumo:
Cloud computing is a new technological paradigm offering computing infrastructure, software and platforms as a pay-as-you-go, subscription-based service. Many potential customers of cloud services require essential cost assessments to be undertaken before transitioning to the cloud. Current assessment techniques are imprecise as they rely on simplified specifications of resource requirements that fail to account for probabilistic variations in usage. In this paper, we address these problems and propose a new probabilistic pattern modelling (PPM) approach to cloud costing and resource usage verification. Our approach is based on a concise expression of probabilistic resource usage patterns translated to Markov decision processes (MDPs). Key costing and usage queries are identified and expressed in a probabilistic variant of temporal logic and calculated to a high degree of precision using quantitative verification techniques. The PPM cost assessment approach has been implemented as a Java library and validated with a case study and scalability experiments. © 2012 Springer-Verlag Berlin Heidelberg.
Resumo:
To benefit from the advantages that Cloud Computing brings to the IT industry, management policies must be implemented as a part of the operation of the Cloud. Among others, for example, the specification of policies can be used for the management of energy to reduce the cost of running the IT system or also for security policies while handling privacy issues of users. As cloud platforms are large, manual enforcement of policies is not scalable. Hence, autonomic approaches for management policies have recently received a considerable attention. These approaches allow specification of rules that are executed via rule-engines. The process of rules creation starts by the interpretation of the policies drafted by high-rank managers. Then, technical IT staff translate such policies to operational activities to implement them. Such process can start from a textual declarative description and after numerous steps terminates in a set of rules to be executed on a rule engine. To simplify the steps and to bridge the considerable gap between the declarative policies and executable rules, we propose a domain-specific language called CloudMPL. We also design a method of automated transformation of the rules captured in CloudMPL to the popular rule-engine Drools. As the policies are changed over time, code generation will reduce the time required for the implementation of the policies. In addition, using a declarative language for writing the specifications is expected to make the authoring of rules easier. We demonstrate the use of the CloudMPL language into a running example extracted from a management energy consumption case study.