999 resultados para Obblighi costituzionali dello stato
Resumo:
Oggetto di questa tesi di laurea è la riqualificazione funzionale ed energetica di un'autorimessa per corriere costruita a Forlì nel 1935 dal geom. Alberto Flamigni e di proprietà dell' ATR, Agenzia per la Mobilità della provincia di Forlì-Cesena. Al deposito per corriere sono annessi dei piccoli capanni adibiti a magazzini ed una palazzina per uffici costruita negli anni '50, non facente parte del progetto originale. Oggi l'intero complesso risulta in disuso e la richiesta espressa dall'Amministrazione Comunale di Forlì è quella di adattare il comparto per ospitare funzioni musicali, d'intrattenimento e cultura, pensando anche ad un collegamento col manufatto storico dell'Arena Forlivese; quest'ultima, costruita negli anni '20, è situata ai margini del lotto in esame, risulta di proprietà privata ed oggi versa in condizioni di grave degrado. Uno dei fini del progetto, sul filo conduttore delle richieste dell'Amministrazione, è quello di mantenere l'involucro originale dell'edificio, su cui grava anche un vincolo storico, essendo stato progettato durante il periodo fascista ed avendo forti richiami alle soluzioni architettoniche adottate da Marcello Piacentini. Si è quindi deciso di lavorare al suo interno, al fine di creare dei nuclei indipendenti che ospitano le nuove funzioni di auditorium, mediateca, spazio espositivo, sale prova, camerini, mantenendo invece intatto il perimetro in mattoni facciavista con basamento in travertino. Il fronte esposto a sud, essendo stato originariamente pensato come mero elemento di chiusura, senza basamento e sistema di rivestimento ma semplicemente intonacato, si distacca dal resto dell'involucro ed è stato perciò oggetto di maggiori modifiche, in relazione anche al nuovo orientamento d'ingresso pensato per il comparto: l'Amministrazione Comunale ha infatti espresso il desiderio di modificare il percorso di accesso all'edificio, dal fronte nord su piazza Savonarola al fronte ovest su via Ugo Bassi. Il progetto ha adottato un approccio integrato dal punto di vista formale e costruttivo, ponendo particolare attenzione al rispetto e alla valorizzazione della struttura esistente: uno dei punti forti dell'ex deposito è infatti la sua copertura in travi reticolari in c.a. con shed vetrati orientati a nord. Tale sistema di copertura è stato mantenuto per favorire l'illuminazione degli spazi interni, isolato termicamente ed integrato con dei pannelli diffusori che garantiscono una luce uniforme e ben distribuita. Dal punto di vista funzionale e distributivo il progetto ha risposto a criteri di massima flessibilità e fruibilità degli ambienti interni, assecondando le esigenze dell'utenza. Mantenendo la finalità del minimo intervento sull'involucro esistente, nel piano terra si è adottata una tipologia di ambienti open space che delimitano il doppio volume dello spazio espositivo, pensato come un semplice e neutro contenitore, allestibile in base al tipo di mostra ed alla volontà degli organizzatori. Particolare attenzione è stata rivolta alla scelta della tipologia costruttiva per l'auditorium ed i volumi adibiti a sale prova, camerini e depositi, adottando elementi prefabbricati in legno assemblati a secco. Si sono studiati anche i sistemi impiantistici al fine di garantire un elevato livello di comfort interno e nel contempo un considerevole risparmio dal punto di vista energetico. Durante le varie fasi di avanzamento e messa a punto del progetto è stata posta grande attenzione all'aspetto acustico, dalla scelta della forma della sala al trattamento superficiale per garantire un'ottima resa prestazionale, parametro imprescindibile nella progettazione di un adeguato spazio musicale. Altro elemento preso in considerazione a scala locale e urbana è stato quello della sistemazione del cortile a sud, oggi asfaltato ed utilizzato come semplice parcheggio di autobus, al fine di trasformarlo in parco pubblico fruibile dagli utenti del complesso culturale e nel contempo elemento di connessione con l'Arena, tramite un nuovo sistema di orientamenti e percorsi.
Resumo:
L’analisi istologica riveste un ruolo fondamentale per la pianificazione di eventuali terapie mediche o chirurgiche, fornendo diagnosi sulla base dell’analisi di tessuti, o cellule, prelevati con biopsie o durante operazioni. Se fino ad alcuni anni fa l’analisi veniva fatta direttamente al microscopio, la sempre maggiore diffusione di fotocamere digitali accoppiate consente di operare anche su immagini digitali. Il presente lavoro di tesi ha riguardato lo studio e l’implementazione di un opportuno metodo di segmentazione automatica di immagini istopatologiche, avendo come riferimento esclusivamente ciò che viene visivamente percepito dall’operatore. L’obiettivo è stato quello di costituire uno strumento software semplice da utilizzare ed in grado di assistere l’istopatologo nell’identificazione di regioni percettivamente simili, presenti all’interno dell’immagine istologica, al fine di considerarle per una successiva analisi, oppure di escluderle. Il metodo sviluppato permette di analizzare una ampia varietà di immagini istologiche e di classificarne le regioni esclusivamente in base alla percezione visiva e senza sfruttare alcuna conoscenza a priori riguardante il tessuto biologico analizzato. Nella Tesi viene spiegato il procedimento logico seguito per la progettazione e la realizzazione dell’algoritmo, che ha portato all’adozione dello spazio colore Lab come dominio su cu cui calcolare gli istogrammi. Inoltre, si descrive come un metodo di classificazione non supervisionata utilizzi questi istogrammi per pervenire alla segmentazione delle immagini in classi corrispondenti alla percezione visiva dell’utente. Al fine di valutare l’efficacia dell’algoritmo è stato messo a punto un protocollo ed un sistema di validazione, che ha coinvolto 7 utenti, basato su un data set di 39 immagini, che comprendono una ampia varietà di tessuti biologici acquisiti da diversi dispositivi e a diversi ingrandimenti. Gli esperimenti confermano l’efficacia dell’algoritmo nella maggior parte dei casi, mettendo altresì in evidenza quelle tipologie di immagini in cui le prestazioni risultano non pienamente soddisfacenti.
Il pensiero politico internazionale di Montesquieu: tra la geopolitica e le relazioni internazionali
Resumo:
La tesi ha mostrato come il pensiero politico di Montesquieu possa costituire un utile riferimento teorico per affrontare il problema della ricontestualizzazione dello studio delle relazioni internazionali. La prima parte del lavoro evidenzia alcuni aspetti del metodo di ricerca e del pensiero politico di Montesquieu. Nel primo capitolo, è stato identificato un metodo di ricerca ed un approccio sociologico nello studio della politica, che rappresenta un precedente rispetto alla fondazione di una scienza politica che si propone di identificare nessi causali tra i fenomeni politici. In particolare, si deve riconoscere a Montesquieu il merito di aver introdotto un tipo di analisi della politica che consideri l’interazione di più fattori tra loro. La complessità del reale può essere spiegata soltanto identificando i rapporti che si formano tra gli elementi della realtà. Quindi è possibile porre dei principi in grado di produrre un ordine conoscibile ed interpretabile di tutti questi elementi. Nel secondo capitolo è stata presentata un’analisi delle tipologie delle forme di governo e del concetto di libertà politica. Questo capitolo ha evidenziato solo alcuni aspetti del pensiero politico di Montesquieu utili alla comprensione del pensiero politico internazionale. In particolare, è stata analizzata la struttura e il ressort di ogni forma di governo sottolineando gli aspetti di corruzione e i relativi processi di mutamento. La seconda parte del lavoro ha affrontato l’analisi di un pensiero politico internazionale ed ha evidenziato la rilevanza di una riflessione geopolitica. Nel terzo capitolo abbiamo mostrato l’emersione di una riflessione su alcuni argomenti di relazioni internazionali, quali il problema della guerra e della pace, il diritto internazionale e l’interdipendenza economica, legandoli alle forme di governo. Quindi sono stati identificati ed analizzati tre modelli di sistema internazionale sottolineando in particolare il nesso con il concetto di società internazionale. Tra questi modelli di sistema internazionale, quello che presenta le caratteristiche più singolari, è certamente il sistema della federazione di repubbliche. Infine, nell’ultimo capitolo, abbiamo evidenziato l’importanza della rappresentazione spaziale del mondo di Montesquieu e l’uso di categorie concettuali e metodi di analisi della geopolitica. In particolare, è stata rilevata l’importanza dell’aspetto dimensionale per la comprensione delle dinamiche di ascesa e declino delle forme di Stato e delle forme di governo. Si è mostrato come non sia possibile ascrivere il pensiero di Montesquieu nella categoria del determinismo geografico o climatico. Al contrario, abbiamo evidenziato come tale pensiero possa essere considerato un precedente di una corrente di pensiero della geopolitica francese definita “possibilismo”. Secondo questa teoria i fattori ambientali, più che esercitare un’azione diretta sul comportamento dell’uomo, agiscono selezionando il campo delle scelte possibili.
Resumo:
Con il trascorrere del tempo, le reti di stazioni permanenti GNSS (Global Navigation Satellite System) divengono sempre più un valido supporto alle tecniche di rilevamento satellitare. Esse sono al tempo stesso un’efficace materializzazione del sistema di riferimento e un utile ausilio ad applicazioni di rilevamento topografico e di monitoraggio per il controllo di deformazioni. Alle ormai classiche applicazioni statiche in post-processamento, si affiancano le misure in tempo reale sempre più utilizzate e richieste dall’utenza professionale. In tutti i casi risulta molto importante la determinazione di coordinate precise per le stazioni permanenti, al punto che si è deciso di effettuarla tramite differenti ambienti di calcolo. Sono stati confrontati il Bernese, il Gamit (che condividono l’approccio differenziato) e il Gipsy (che utilizza l’approccio indifferenziato). L’uso di tre software ha reso indispensabile l’individuazione di una strategia di calcolo comune in grado di garantire che, i dati ancillari e i parametri fisici adottati, non costituiscano fonte di diversificazione tra le soluzioni ottenute. L’analisi di reti di dimensioni nazionali oppure di reti locali per lunghi intervalli di tempo, comporta il processamento di migliaia se non decine di migliaia di file; a ciò si aggiunge che, talora a causa di banali errori, oppure al fine di elaborare test scientifici, spesso risulta necessario reiterare le elaborazioni. Molte risorse sono quindi state investite nella messa a punto di procedure automatiche finalizzate, da un lato alla preparazione degli archivi e dall’altro all’analisi dei risultati e al loro confronto qualora si sia in possesso di più soluzioni. Dette procedure sono state sviluppate elaborando i dataset più significativi messi a disposizione del DISTART (Dipartimento di Ingegneria delle Strutture, dei Trasporti, delle Acque, del Rilevamento del Territorio - Università di Bologna). E’ stato così possibile, al tempo stesso, calcolare la posizione delle stazioni permanenti di alcune importanti reti locali e nazionali e confrontare taluni fra i più importanti codici scientifici che assolvono a tale funzione. Per quanto attiene il confronto fra i diversi software si è verificato che: • le soluzioni ottenute dal Bernese e da Gamit (i due software differenziati) sono sempre in perfetto accordo; • le soluzioni Gipsy (che utilizza il metodo indifferenziato) risultano, quasi sempre, leggermente più disperse rispetto a quelle degli altri software e mostrano talvolta delle apprezzabili differenze numeriche rispetto alle altre soluzioni, soprattutto per quanto attiene la coordinata Est; le differenze sono però contenute in pochi millimetri e le rette che descrivono i trend sono comunque praticamente parallele a quelle degli altri due codici; • il citato bias in Est tra Gipsy e le soluzioni differenziate, è più evidente in presenza di determinate combinazioni Antenna/Radome e sembra essere legato all’uso delle calibrazioni assolute da parte dei diversi software. E’ necessario altresì considerare che Gipsy è sensibilmente più veloce dei codici differenziati e soprattutto che, con la procedura indifferenziata, il file di ciascuna stazione di ciascun giorno, viene elaborato indipendentemente dagli altri, con evidente maggior elasticità di gestione: se si individua un errore strumentale su di una singola stazione o se si decide di aggiungere o togliere una stazione dalla rete, non risulta necessario il ricalcolo dell’intera rete. Insieme alle altre reti è stato possibile analizzare la Rete Dinamica Nazionale (RDN), non solo i 28 giorni che hanno dato luogo alla sua prima definizione, bensì anche ulteriori quattro intervalli temporali di 28 giorni, intercalati di sei mesi e che coprono quindi un intervallo temporale complessivo pari a due anni. Si è così potuto verificare che la RDN può essere utilizzata per l’inserimento in ITRF05 (International Terrestrial Reference Frame) di una qualsiasi rete regionale italiana nonostante l’intervallo temporale ancora limitato. Da un lato sono state stimate le velocità ITRF (puramente indicative e non ufficiali) delle stazioni RDN e, dall’altro, è stata effettuata una prova di inquadramento di una rete regionale in ITRF, tramite RDN, e si è verificato che non si hanno differenze apprezzabili rispetto all’inquadramento in ITRF, tramite un congruo numero di stazioni IGS/EUREF (International GNSS Service / European REference Frame, SubCommission for Europe dello International Association of Geodesy).
Resumo:
La Muay Thai, comunemente detta “Boxe Thailandese” è un'arte marziale che rientra nella classificazione delle attività intermittenti con entrambi i sistemi energetici reclutati, aerobico e anaerobico, è inoltre caratterizzata dal fatto che il combattimento alla distanza si alterna alla lotta, denominata “clinch”. Nonostante la popolarità della Muay Thai, in ambito mondiale, stia progressivamente aumentando così come è in aumento il numero di atleti che la praticano, le ricerche incentrate su questa arte marziale e gli studi relativi agli aggiustamenti cardiometabolici nonché alle modalità temporali con cui gli specifici gesti atletici si possono succedere nel tempo durante un match, sono ancora estremamente esigui. L’oggetto del nostro studio è stato l’analisi della struttura temporale del combattimento, tramite la Match Analysis off line (analisi visiva del combattimento), con comparazione dei dati ottenuti tra il vincitore (winner) e il perdente (loser) e la valutazione dell’andamento di alcuni importanti parametri metabolici attraverso la misurazione del lattato e della HR, durante un incontro reale di Boxe Thailandese. La sperimentazione è stata condotta su un gruppo di dieci soggetti di sesso maschile, praticanti la disciplina ad un alto livello nazionale, la cui media ± deviazione standard (DS), di età, peso e altezza è di 24,6 ±4,01 anni, 69,4 ±7 kg e 174,1 ±4,3 cm. Gli atleti sono stati sottoposti, in due diverse giornate separate da almeno tre giorni, a due test; durante una prima seduta sperimentale preliminare abbiamo determinato il massimo consumo di ossigeno (VO2max) nel corso di un test sul nastro trasportare, con concomitante stima della Soglia anaerobica (SA) e misura della massima frequenza cardiaca (HR max). In una seconda seduta sperimentale abbiamo effettuato i test di combattimento in palestra e infine abbiamo analizzato i video degli incontri attraverso la Match Analysis. Dai risultati della Match - Analysis è scaturito che i vincitori hanno eseguito un numero più elevato di azioni efficaci (p < 0,05) rispetto ai non-vincitori, grazie ad un numero maggiore di combinazioni (C ) e di attacchi singoli (A) e un numero minore di difese (D) e di tecniche inefficaci. È così emerso come il livello delle realizzazioni sia quasi esclusivamente dovuto all’efficacia della tecnica e alla tattica delle azioni. Abbiamo quindi focalizzato la nostra attenzione sul clinch e sulle azioni di attacco perché si ipotizzava che potessero essere attività dispendiose e probabilmente responsabili dell’incremento di lattato durante il combattimento, dall’ analisi dei dati però non è stata riscontrata nessuna significativa correlazione tra l’andamento dei dati metabolici e le fasi di attacco e di lotta. Dai nostri risultati emerge in maniera interessante come durante le fasi attive del combattimento si siano raggiunti alti valori di lattato ematico e di frequenza cardiaca, rispettivamente di 12,55 mmol/L e di 182,68 b/min, ben oltre la SA rilevata nel test incrementale dove la HR si posizionava a 168,2 b/min. In conclusione si evidenzia come la Boxe Thailandese sia una disciplina caratterizzata da un considerevole impegno energetico-metabolico, sia aerobico che anaerobico. La predominanza del metabolismo lattacido è dimostrata dagli elevati valori di lattato osservati nel presente studio e dalla frequenza degli attacchi (8,6 ± 3,5 sec.). Questo studio potrà essere utilizzato dagli allenatori per la predisposizione di allenamenti specifici che inducano gli adattamenti propri della Muay Thai.
Resumo:
Negli ultimi anni si sente sempre più spesso parlare di cloud computing. L'idea di fondo di questo concetto è quella di pagare per il solo effettivo utilizzo di un servizio, disponibile sulla rete, avendo a disposizione la possibilità di poter variare le proprie risorse utilizzabili a seconda delle necessità, che potrebbero essere, per esempio, applicazioni standard oppure spazi di storage per i dati. Quando cominciò a diffondersi l'utilizzo del Web, la rete Internet veniva raffigurata come una nuvola (cloud) in modo tale che si rendesse l'idea di un'entità esterna rispetto alla nostra casa o al nostro posto di lavoro, un qualcosa cioè al di fuori dei luoghi abituali in cui vengono utilizzati i PC. Tale rappresentazione diventa ora utile per poter spiegare il concetto di cloud computing. Infatti, grazie a questa nuova tecnologia, dati e programmi normalmente presenti nei nostri computer potranno ora trovarsi sul cloud. Molti reparti IT sono costretti a dedicare una parte significativa del loro tempo a progetti di implementazione, manutenzione e upgrade che spesso non danno un vero valore per l'azienda. I team di sviluppo hanno cominciato quindi a rivolgersi a questa nuova tecnologia emergente per poter minimizzare il tempo dedicato ad attività a basso valore aggiunto per potersi concentrare su quelle attività strategiche che possono fare la differenza per un'azienda. Infatti un'infrastruttura come quella cloud computing promette risparmi nei costi amministrativi che raggiungono addirittura il 50% rispetto ad un software standard di tipo client/server. Questa nuova tecnologia sta dando inizio ad un cambiamento epocale nel mondo dello sviluppo delle applicazioni. Il passaggio che si sta effettuando verso le nuove soluzioni cloud computing consente infatti di creare applicazioni solide in tempi decisamente più brevi e con costi assai inferiori, evitando inoltre tutte le seccature associate a server, soluzioni software singole, aggiornamenti, senza contare il personale necessario a gestire tutto questo. L'obiettivo di questa tesi è quello di mostrare una panoramica della progettazione e dello sviluppo di applicazioni Web nel cloud computing, analizzandone pregi e difetti in relazione alle soluzioni software attuali. Nel primo capitolo viene mostrato un quadro generale in riferimento al cloud, mettendo in luce le sue caratteristiche fondamentali, esaminando la sua architettura e valutando vantaggi e svantaggi di tale piattaforma. Nel secondo capitolo viene presentata la nuova metodologia di progettazione nel cloud, operando prima di tutto un confronto con lo sviluppo dei software standard e analizzando poi l'impatto che il cloud computing opera sulla progettazione. Nel terzo capitolo si entra nel merito della progettazione e sviluppo di applicazioni SaaS, specificandone le caratteristiche comuni ed elencando le piattaforme di rilievo allo stato dell'arte. Si entrerà inoltre nel merito della piattaforma Windows Azure. Nel quarto capitolo viene analizzato nel particolare lo sviluppo di applicazioni SaaS Multi-Tenant, specificando livelli e caratteristiche, fino a spiegare le architetture metadata-driven. Nel quinto capitolo viene operato un confronto tra due possibili approcci di sviluppo di un software cloud, analizzando nello specifico le loro differenze a livello di requisiti non funzionali. Nel sesto capitolo, infine, viene effettuata una panoramica dei costi di progettazione di un'applicazione cloud.
Resumo:
Il fenomeno del collegamento contrattuale prevede la presenza di due o più contratti, diversi e distinti, che, pur caratterizzati dagli elementi e dalla disciplina propri di ognuno, risultano coordinati teleologicamente da un nesso di reciproca dipendenza, in modo che le vicende dell’uno si trasmettono all’altro, influenzandone la validità e l’efficacia. Tale nozione è il frutto dell’elaborazione della dottrina e della giurisprudenza, poiché la disciplina positiva difetta di previsioni recanti la definizione di operazioni in cui si ricorra all’impiego di più contratti in vista di uno scopo economico unitario. Fra le molteplici classificazioni realizzate in relazione a tale strumento, la tipologia che è oggetto di analisi nel presente lavoro è espressione dell’autonomia contrattuale dei contraenti che istituiscono fra i negozi un nesso bilaterale, funzionale e volontario. I presupposti del fenomeno de quo sono, allora, rappresentati dalla necessaria intenzione delle parti di attuare il collegamento, del vincolo che viene creato in concreto e, soprattutto, dal fine pratico unitario ed ulteriore, che esse intendono perseguire coordinando i vari atti. Da qui, l’inquadramento di siffatta figura di collegamento nel fenomeno dell’atipicità contrattuale, frutto dell’attività creativa dei privati di autoregolamentazione dei propri interessi. Dottrina e giurisprudenza, in particolare, reputano il collegamento un meccanismo che agisce sul piano degli effetti dei contratti. Infatti, ogni negozio coinvolto, pur conservando una causa autonoma, è finalizzato ad un unico regolamento di interessi, di talché le vicende che investono uno dei negozi possono ripercuotersi sull’altro (che in sé considerato è immune da vizi) e, pertanto, tutti i contratti simul stabunt simul cadent. In definitiva, così opinando, le patologie che riguardano un atto finiscono per condizionare non solo l’esecuzione, ma anche la validità dell’altro. Successivamente, l’indagine si incentra sull’esegesi dei rari interventi normativi, quasi esclusivamente ascrivibili alla legislazione speciale, che trattano del meccanismo de quo e che si pongono nel solco di quanto affermato dagli interpreti. Muovendo, poi, dal presupposto che l’ordinamento riconosce ai contraenti il potere di dar vita ad autodeterminazioni strutturalmente semplici ovvero come in tal caso più articolate, si cerca di dimostrare che in tali fattispecie l’apprezzamento non va condotto sul singolo contratto, bensì sull’operazione economica unitariamente considerata, come risultante dal collegamento fra più contratti. Infatti, una volta accertata l’interdipendenza funzionale delle diverse prestazioni, l’analisi su di esse assume un rilievo diverso se è compiuta per valutare l’assetto complessivo dell’intera operazione giuridico-economica posta in essere dalle parti: solo a fronte di una valutazione globale dei diritti e degli obblighi, anche in termini economici, si può appurare la reale portata giuridico-economica dell’affare. In forza di tali premesse può, quindi, procedersi ad un compiuto approfondimento del possibile ruolo svolto dalle clausole generali di buona fede ed equilibrio, quali strumenti di garanzia della giustizia negli scambi. Ne consegue l’abbandono di una prospettiva atomistica e, tenendo conto dell’unicità degli interessi perseguiti che vanno oltre le cause proprie dei singoli contratti collegati, si tenta di superare l’assunto per il quale il difetto che inficia uno dei contratti comporti l’automatica caducazione dell’altro. In una visione complessiva dell’operazione, la verifica attinente all’equilibrio tra i singoli atti nei quali essa si svolge ed alla sua possibile alterazione a causa di circostanze sopravvenute o originarie potrebbe sovvertire le certezze interpretative sotto il profilo della disciplina del collegamento, degli effetti dello stesso e delle patologie.
Resumo:
Evaluation of carotid artery intima-media thickness in patients affected by psoriasis Psoriasis is associated with an increased risk of atherosclerosis. This study compared subclinical atherosclerosis, evaluating intima-media thickness the of the carotid in psoriasis vulgaris patients and healthy controls using high-resolution ultrasonography and the correlation of this parameter with other cardiovascular risk factors, like insulin resistance and dyslipidemia, METHODS: We will study 40 psoriasis patients, asymptomatic for cardiovascular diseases, and 40 healthy controls matched for age and sex. Intima-media thickness of the common carotid arteries will be measured ultrasonographically. Diabetes mellitus, hypertension, renal failure, a history of cardiovascular or cerebrovascular disease will be exclusion criteria. Subjects who are receiving lipid-lowering therapy, antihypertensive or anti-aggregant drugs, nitrates or long-term systemic steroids will be also excluded. Objective of this study is the evaluation of carotid artery intima-media thickness and its correlation with other blood cardiovascular risk factors in patients affected by psoriasis but asinptomatic for coronary comparing this data with the healthy control subjects. Considering that the presence of psoriasis is an independent risk factor for subclinical atherosclerosis, we want to consider this method of evaluation of cardiovascular risk and to control this risk to prevent IMA.
Resumo:
Il Cloud computing è probabilmente l'argomento attualmente più dibattuto nel mondo dell'Information and Communication Technology (ICT). La diffusione di questo nuovo modo di concepire l'erogazione di servizi IT, è l'evoluzione di una serie di tecnologie che stanno rivoluzionando le modalit à in cui le organizzazioni costruiscono le proprie infrastrutture informatiche. I vantaggi che derivano dall'utilizzo di infrastrutture di Cloud Computing sono ad esempio un maggiore controllo sui servizi, sulla struttura dei costi e sugli asset impiegati. I costi sono proporzionati all'eettivo uso dei servizi (pay-per-use), evitando dunque gli sprechi e rendendo più efficiente il sistema di sourcing. Diverse aziende hanno già cominciato a provare alcuni servizi cloud e molte altre stanno valutando l'inizio di un simile percorso. La prima organizzazione a fornire una piattaforma di cloud computing fu Amazon, grazie al suo Elastic Computer Cloud (EC2). Nel luglio del 2010 nasce OpenStack, un progetto open-source creato dalla fusione dei codici realizzati dall'agenzia governativa della Nasa[10] e dell'azienda statunitense di hosting Rackspace. Il software realizzato svolge le stesse funzioni di quello di Amazon, a differenza di questo, però, è stato rilasciato con licenza Apache, quindi nessuna restrizione di utilizzo e di implementazione. Oggi il progetto Openstack vanta di numerose aziende partner come Dell, HP, IBM, Cisco, e Microsoft. L'obiettivo del presente elaborato è quello di comprendere ed analizzare il funzionamento del software OpenStack. Il fine principale è quello di familiarizzare con i diversi componenti di cui è costituito e di concepire come essi interagiscono fra loro, per poter costruire infrastrutture cloud del tipo Infrastructure as a service (IaaS). Il lettore si troverà di fronte all'esposizione degli argomenti organizzati nei seguenti capitoli. Nel primo capitolo si introduce la definizione di cloud computing, trattandone le principali caratteristiche, si descrivono poi, i diversi modelli di servizio e di distribuzione, delineando vantaggi e svantaggi che ne derivano. Nel secondo capitolo due si parla di una delle tecnologie impiegate per la realizzazione di infrastrutture di cloud computing, la virtualizzazione. Vengono trattate le varie forme e tipologie di virtualizzazione. Nel terzo capitolo si analizza e descrive in dettaglio il funzionamento del progetto OpenStack. Per ogni componente del software, viene illustrata l'architettura, corredata di schemi, ed il relativo meccanismo. Il quarto capitolo rappresenta la parte relativa all'installazione del software e alla configurazione dello stesso. Inoltre si espongono alcuni test effettuati sulla macchina in cui è stato installato il software. Infine nel quinto capitolo si trattano le conclusioni con le considerazioni sugli obiettivi raggiunti e sulle caratteristiche del software preso in esame.
Resumo:
L’argomento scelto riguarda l’adozione di standard privati da parte di imprese agro-alimentari e le loro conseguenze sulla gestione globale dell’azienda. In particolare, lo scopo di questo lavoro è quello di valutare le implicazioni dovute all’adozione del BRC Global Standard for Food Safety da parte delle imprese agro-alimentari italiane. La valutazione di tale impatto è basata sulle percezioni dei responsabili aziendali in merito ad aspetti economici, gestionali, commerciali, qualitativi, organizzativi. La ricerca ha seguito due passaggi fondamentali: innanzitutto sono state condotte 7 interviste in profondità con i Responsabili Qualità (RQ) di aziende agro-alimentari italiane certificate BRC Food. Le variabili estrapolate dall’analisi qualitativa del contenuto delle interviste sono state inserite, insieme a quelle rilevate in letteratura, nel questionario creato per la successiva survey. Il questionario è stato inviato tramite e-mail e con supporto telefonico ad un campione di aziende selezionato tramite campionamento random. Dopo un periodo di rilevazione prestabilito, sono stati compilati 192 questionari. L’analisi descrittiva dei dati mostra che i RQ sono in buona parte d’accordo con le affermazioni riguardanti gli elementi d’impatto. Le affermazioni maggiormente condivise riguardano: efficienza del sistema HACCP, efficienza del sistema di rintracciabilità, procedure di controllo, formazione del personale, miglior gestione delle urgenze e non conformità, miglior implementazione e comprensione di altri sistemi di gestione certificati. Attraverso l’analisi ANOVA fra variabili qualitative e quantitative e relativo test F emerge che alcune caratteristiche delle aziende, come l’area geografica, la dimensione aziendale, la categoria di appartenenza e il tipo di situazione nei confronti della ISO 9001 possono influenzare differentemente le opinioni degli intervistati. Successivamente attraverso un’analisi fattoriale sono stati estratti 8 fattori partendo da un numero iniziale di 28 variabili. Sulla base dei fattori è stata applicata la cluster analysis di tipo gerarchico che ha portato alla segmentazione del campione in 5 gruppi diversi. Ogni gruppo è stato interpretato sulla base di un profilo determinato dal posizionamento nei confronti dei vari fattori. I risultati oltre ad essere stati validati attraverso focus group effettuati con ricercatori ed operatori del settore, sono stati supportati anche da una successiva indagine qualitativa condotta presso 4 grandi retailer inglesi. Lo scopo di questa successiva indagine è stato quello di valutare l’esistenza di opinioni divergenti nei confronti dei fornitori che andasse quindi a sostenere l’ipotesi di un problema di asimmetria informativa che nonostante la presenza di standard privati ancora sussiste nelle principali relazioni contrattuali. Ulteriori percorsi di ricerca potrebbero stimare se la valutazione dell’impatto del BRC può aiutare le aziende di trasformazione nell’implementazione di altri standard di qualità e valutare quali variabili possono influenzare invece le percezioni in termini di costi dell’adozione dello standard.