945 resultados para Macchina automatica, analisi dinamica di meccanismi, aumento di produttività
Resumo:
Analisi di apparecchiature esistenti su macchina di prova assiale per l'esecuzione di prove differenti e sviluppo di una nuova attrezzatura per l'esecuzione di prove di torsione pura su macchina assiale.
Resumo:
Dall'analisi dei big data si possono trarre degli enormi benefici in svariati ambiti applicativi. Uno dei fattori principali che contribuisce alla ricchezza dei big data, consiste nell'uso non previsto a priori di dati immagazzinati in precedenza, anche in congiunzione con altri dataset eterogenei: questo permette di trovare correlazioni significative e inaspettate tra i dati. Proprio per questo, il Valore, che il dato potenzialmente porta con sè, stimola le organizzazioni a raccogliere e immagazzinare sempre più dati e a ricercare approcci innovativi e originali per effettuare analisi su di essi. L’uso fortemente innovativo che viene fatto dei big data in questo senso e i requisiti tecnologici richiesti per gestirli hanno aperto importanti problematiche in materia di sicurezza e privacy, tali da rendere inadeguati o difficilmente gestibili, gli strumenti di sicurezza utilizzati finora nei sistemi tradizionali. Con questo lavoro di tesi si intende analizzare molteplici aspetti della sicurezza in ambito big data e offrire un possibile approccio alla sicurezza dei dati. In primo luogo, la tesi si occupa di comprendere quali sono le principali minacce introdotte dai big data in ambito di privacy, valutando la fattibilità delle contromisure presenti all’attuale stato dell’arte. Tra queste anche il controllo dell’accesso ha riscontrato notevoli sfide causate dalle necessità richieste dai big data: questo elaborato analizza pregi e difetti del controllo dell’accesso basato su attributi (ABAC), un modello attualmente oggetto di discussione nel dibattito inerente sicurezza e privacy nei big data. Per rendere attuabile ABAC in un contesto big data, risulta necessario l’ausilio di un supporto per assegnare gli attributi di visibilità alle informazioni da proteggere. L’obiettivo di questa tesi consiste nel valutare fattibilità, caratteristiche significative e limiti del machine learning come possibile approccio di utilizzo.
Resumo:
Sempre più sono i servizi offerti oggigiorno sul cloud. L’isolamento dei vari utenti diviene una componente fondamentale se si vuole proteggere la privacy e la confidenzialità dei dati dei clienti. Mantenere una struttura che offre questo genere di servizi però è estremamente complesso ed oneroso. Si vuole mostrare come sia possibile evitare la creazione di centinaia di migliaia di macchine virtuali, quando potrebbe bastare creare una macchina virtuale per tipo di servizio offerto, e far accedere ogni cliente che necessita di quel servizio semplicemente isolandolo con linux namespace, in maniera automatica.
Resumo:
Gli istoni sono proteine basiche che possono essere classificate in varie classi: H1, H2A, H2B, H3 e H4. Queste proteine formano l’ottamero proteico attorno al quale si avvolge il DNA per formare il nucleosoma che è l’unità fondamentale della cromatina. A livello delle code N-terminali, gli istoni possono essere soggetti a numerose modifiche posttraduzionali quali acetilazioni, metilazioni, fosforilazioni, ADP-ribosilazioni e ubiquitinazioni. Queste modifiche portano alla formazione di diversi siti di riconoscimento per diversi complessi enzimatici coinvolti in importanti processi come la riparazione e la replicazione del DNA e l’assemblaggio della cromatina. La più importante e la più studiata di queste modifiche è l’acetilazione che avviene a livello dei residui amminici della catena laterale dell’amminoacido lisina. I livelli corretti di acetilazione delle proteine istoniche sono mantenuti dall’attività combinata di due enzimi: istone acetil transferasi (HAT) e istone deacetilasi (HDAC). Gli enzimi appartenenti a questa famiglia possono essere suddivisi in varie classi a seconda delle loro diverse caratteristiche, quali la localizzazione cellulare, la dimensione, l’omologia strutturale e il meccanismo d’azione. Recentemente è stato osservato che livelli aberranti di HDAC sono coinvolti nella carcinogenesi; per questo motivo numerosi gruppi di ricerca sono interessati alla progettazione e alla sintesi di composti che siano in grado di inibire questa classe enzimatica. L’inibizione delle HDAC può infatti provocare arresto della crescita cellulare, apoptosi o morte cellulare. Per questo motivo la ricerca farmaceutica in campo antitumorale è mirata alla sintesi di inibitori selettivi verso le diverse classi di HDAC per sviluppare farmaci meno tossici e per cercare di comprendere con maggiore chiarezza il ruolo biologico di questi enzimi. Il potenziale antitumorale degli inibitori delle HDAC deriva infatti dalla loro capacità di interferire con diversi processi cellulari, generalmente non più controllati nelle cellule neoplastiche. Nella maggior parte dei casi l’attività antitumorale risiede nella capacità di attivare programmi di differenziamento, di inibire la progressione del ciclo cellulare e di indurre apoptosi. Inoltre sembra essere molto importante anche la capacità di attivare la risposta immunitaria e l’inibizione dell’angiogenesi. Gli inibitori delle HDAC possono essere a loro volta classificati in base alla struttura chimica, alla loro origine (naturale o sintetica), e alla loro capacità di inibire selettivamente le HDAC appartenenti a classi diverse. Non è ancora chiaro se la selettività di queste molecole verso una specifica classe di HDAC sia importante per ottenere un effetto antitumorale, ma sicuramente inibitori selettivi possono essere molto utili per investigare e chiarire il ruolo delle HDAC nei processi cellulari che portano all’insorgenza del tumore. Nel primo capitolo di questa tesi quindi è riportata un’introduzione sull’importanza delle proteine istoniche non solo da un punto di vista strutturale ma anche funzionale per il destino cellulare. Nel secondo capitolo è riportato lo stato dell’arte dell’analisi delle proteine istoniche che comprende sia i metodi tradizionali come il microsequenziamento e l’utilizzo di anticorpi, sia metodi più innovativi (RP-LC, HILIC, HPCE) ideati per poter essere accoppiati ad analisi mediante spettrometria di massa. Questa tecnica consente infatti di ottenere importanti e precise informazioni che possono aiutare sia a identificare gli istoni come proteine che a individuare i siti coinvolti nelle modifiche post-traduzionali. Nel capitolo 3 è riportata la prima parte del lavoro sperimentale di questa tesi volto alla caratterizzazione delle proteine istoniche mediante tecniche cromatografiche accoppiate alla spettrometria di massa. Nella prima fase del lavoro è stato messo a punto un nuovo metodo cromatografico HPLC che ha consentito di ottenere una buona separazione, alla linea di base, delle otto classi istoniche (H1-1, H1-2, H2A-1, H2A-2, H2B, H3-1, H3-2 e H4). La separazione HPLC delle proteine istoniche ha permesso di poter eseguire analisi accurate di spettrometria di massa mediante accoppiamento con un analizzatore a trappola ionica tramite la sorgente electrospray (ESI). E’ stato così possibile identificare e quantificare tutte le isoforme istoniche, che differiscono per il tipo e il numero di modifiche post-traduzionali alle quali sono soggette, previa estrazione da colture cellulari di HT29 (cancro del colon). Un’analisi così dettagliata delle isoforme non può essere ottenuta con i metodi immunologici e permette di eseguire un’indagine molto accurata delle modifiche delle proteine istoniche correlandole ai diversi stadi della progressione del ciclo e alla morte cellulare. Il metodo messo a punto è stato convalidato mediante analisi comparative che prevedono la stessa separazione cromatografica ma accoppiata a uno spettrometro di massa avente sorgente ESI e analizzatore Q-TOF, dotato di maggiore sensibilità e risoluzione. Successivamente, per identificare quali sono gli specifici amminoacidi coinvolti nelle diverse modifiche post-traduzionali, l’istone H4 è stato sottoposto a digestione enzimatica e successiva analisi mediante tecniche MALDI-TOF e LC-ESI-MSMS. Queste analisi hanno permesso di identificare le specifiche lisine acetilate della coda N-terminale e la sequenza temporale di acetilazione delle lisine stesse. Nel quarto capitolo sono invece riportati gli studi di inibizione, mirati a caratterizzare le modifiche a carico delle proteine istoniche indotte da inibitori delle HDAC, dotati di diverso profilo di potenza e selettività. Dapprima Il metodo messo a punto per l’analisi delle proteine istoniche è stato applicato all’analisi di istoni estratti da cellule HT29 trattate con due noti inibitori delle HDAC, valproato e butirrato, somministrati alle cellule a dosi diverse, che corrispondono alle dosi con cui sono stati testati in vivo, per convalidare il metodo per studi di inibizione di composti incogniti. Successivamente, lo studio è proseguito con lo scopo di evidenziare effetti legati alla diversa potenza e selettività degli inibitori. Le cellule sono state trattate con due inibitori più potenti, SAHA e MS275, alla stessa concentrazione. In entrambi i casi il metodo messo a punto ha permesso di evidenziare l’aumento dei livelli di acetilazione indotto dal trattamento con gli inibitori; ha inoltre messo in luce differenti livelli di acetilazione. Ad esempio il SAHA, potente inibitore di tutte le classi di HDAC, ha prodotto un’estesa iperacetilazione di tutte le proteine istoniche, mentre MS275 selettivo per la classe I di HDAC, ha prodotto modifiche molto più blande. E’ stato quindi deciso di applicare questo metodo per studiare la dose e la tempo-dipendenza dell’effetto di quattro diversi inibitori delle HDAC (SAHA, MS275, MC1855 e MC1568) sulle modifiche post-traduzionali di istoni estratti da cellule HT29. Questi inibitori differiscono oltre che per la struttura chimica anche per il profilo di selettività nei confronti delle HDAC appartenenti alle diverse classi. Sono stati condotti quindi studi di dose-dipendenza che hanno consentito di ottenere i valori di IC50 (concentrazione capace di ridurre della metà la quantità relativa dell’istone meno acetilato) caratteristici per ogni inibitore nei confronti di tutte le classi istoniche. E’ stata inoltre calcolata la percentuale massima di inibizione per ogni inibitore. Infine sono stati eseguiti studi di tempo-dipendenza. I risultati ottenuti da questi studi hanno permesso di correlare i livelli di acetilazione delle varie classi istoniche con la selettività d’azione e la struttura chimica degli inibitori somministrati alle cellule. In particolare, SAHA e MC1855, inibitori delle HDAC di classi I e II a struttura idrossamica, hanno causato l’iperacetilazione di tutte le proteine istoniche, mentre MC1568 (inibitore selettivo per HDAC di classe II) ha prodotto l’iperacetilazione solo di H4. Inoltre la potenza e la selettività degli inibitori nel provocare un aumento dei livelli di acetilazione a livello delle distinte classi istoniche è stata correlata al destino biologico della cellula, tramite studi di vitalità cellulare. E’ stato osservato che il SAHA e MC1855, inibitori potenti e non selettivi, somministrati alla coltura HT29 a dose 50 μM producono morte cellulare, mentre MS275 alla stessa dose produce accumulo citostatico in G1/G0. MC1568, invece, non produce effetti significatici sul ciclo cellulare. Questo studio ha perciò dimostrato che l’analisi tramite HPLC-ESI-MS delle proteine istoniche permette di caratterizzare finemente la potenza e la selettività di nuovi composti inibitori delle HDAC, prevedendone l’effetto sul ciclo cellulare. In maggiore dettaglio è risultato che l’iperacetilazione di H4 non è in grado di provocare modifiche significative sul ciclo cellulare. Questo metodo, insieme alle analisi MALDI-TOF e LC-ESI-MSMS che permettono di individuare l’ordine di acetilazione delle lisine della coda N-terminale, potrà fornire importanti informazioni sugli inibitori delle HDAC e potrà essere applicato per delineare la potenza, la selettività e il meccanismo di azione di nuovi potenziali inibitori di questa classe enzimatica in colture cellulari tumorali.
Resumo:
Il cambiamento organizzativo costituisce oggi un elemento fondamentale per la sopravvivenza dell'impresa. Un approccio al cambiamento è costituito dal Total Quality Management (o Qualità Totale). La Qualità Totale pone il cliente e la sua soddisfazione al centro delle decisioni aziendali. Ciò presuppone un coinvolgimento di tutto il personale dell'impresa nell'attività di miglioramento continuo. Un sistema di gestione della Qualità Totale è rappresentato dalla Lean Manufacturing. Infatti, i punti essenziali della Lean Manufacturing sono il focus sul cliente, l'eliminazione degli sprechi ed il miglioramento continuo. L'obiettivo è la creazione di valore per il cliente e, quindi, l'eliminazione di ogni forma di spreco. E' necessario adottare un'organizzazione a flusso e controllare continuamente il valore del flusso nell'ottica del miglioramento continuo. Il Lead Time costituisce l'indicatore principale della Lean Manufacturing.I risultati principali della Lean Manufacturing sono: aumento della produttività, miglioramento della qualità del prodotto, riduzione dei lead time e minimizzazione delle scorte ed aumento della rotazione. Tutto ciò è applicato ad un caso aziendale reale. Il caso si compone di un'analisi dei processi di supporto, dell'analisi del capitale circolante (analisi dello stock e del flusso attuale e futuro) e dell'analisi del sistema di trasporto, con l'obiettivo di ridurre il più possibile il lead time totale del sistema.
Resumo:
Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.
Resumo:
La necessità di sincronizzare i propri dati si presenta in una moltitudine di situazioni, infatti il numero di dispositivi informatici a nostra disposizione è in continua crescita e, all' aumentare del loro numero, cresce l' esigenza di mantenere aggiornate le multiple copie dei dati in essi memorizzati. Vi sono diversi fattori che complicano tale situazione, tra questi la varietà sempre maggiore dei sistemi operativi utilizzati nei diversi dispositivi, si parla di Microsoft Windows, delle tante distribuzioni Linux, di Mac OS X, di Solaris o di altri sistemi operativi UNIX, senza contare i sistemi operativi più orientati al settore mobile come Android. Ogni sistema operativo ha inoltre un modo particolare di gestire i dati, si pensi alla differente gestione dei permessi dei file o alla sensibilità alle maiuscole. Bisogna anche considerare che se gli aggiornamenti dei dati avvenissero soltanto su di uno di questi dispositivi sarebbe richiesta una semplice copia dei dati aggiornati sugli altri dispositivi, ma che non è sempre possibile utilizzare tale approccio. Infatti i dati vengono spesso aggiornati in maniera indipendente in più di un dispositivo, magari nello stesso momento, è pertanto necessario che le applicazioni che si occupano di sincronizzare tali dati riconoscano le situazioni di conflitto, nelle quali gli stessi dati sono stati aggiornati in più di una copia ed in maniera differente, e permettano di risolverle, uniformando lo stato delle repliche. Considerando l' importanza e il valore che possono avere i dati, sia a livello lavorativo che personale, è necessario che tali applicazioni possano garantirne la sicurezza, evitando in ogni caso un loro danneggiamento, perchè sempre più spesso il valore di un dispositivo dipende più dai dati in esso contenuti che dal costo dello hardware. In questa tesi verranno illustrate alcune idee alternative su come possa aver luogo la condivisione e la sincronizzazione di dati tra sistemi operativi diversi, sia nel caso in cui siano installati nello stesso dispositivo che tra dispositivi differenti. La prima parte della tesi descriverà nel dettaglio l' applicativo Unison. Tale applicazione, consente di mantenere sincronizzate tra di loro repliche dei dati, memorizzate in diversi dispositivi che possono anche eseguire sistemi operativi differenti. Unison funziona a livello utente, analizzando separatamente lo stato delle repliche al momento dell' esecuzione, senza cioè mantenere traccia delle operazioni che sono state effettuate sui dati per modificarli dal loro stato precedente a quello attuale. Unison permette la sincronizzazione anche quando i dati siano stati modificati in maniera indipendente su più di un dispositivo, occupandosi di risolvere gli eventuali conflitti che possono verificarsi rispettando la volontà dell' utente. Verranno messe in evidenza le strategie utilizzate dai suoi ideatori per garantire la sicurezza dei dati ad esso affidati e come queste abbiano effetto nelle più diverse condizioni. Verrà poi fornita un' analisi dettagiata di come possa essere utilizzata l' applicazione, fornendo una descrizione accurata delle funzionalità e vari esempi per renderne più chiaro il funzionamento. Nella seconda parte della tesi si descriverà invece come condividere file system tra sistemi operativi diversi all' interno della stessa macchina, si tratta di un approccio diametralmente opposto al precedente, in cui al posto di avere una singola copia dei dati, si manteneva una replica per ogni dispositivo coinvolto. Concentrando l' attenzione sui sistemi operativi Linux e Microsoft Windows verranno descritti approfonditamente gli strumenti utilizzati e illustrate le caratteristiche tecniche sottostanti.
Resumo:
L’introduzione massiccia dell’elettronica di potenza nel campo degli azionamenti elettrici negli ultimi decenni ha sostanzialmente rivoluzionato la tipologia di alimentazione dei motori elettrici. Da un lato ciò ha migliorato la qualità del controllo della velocità, ma dall’altro ha aggravato le sollecitazioni che gli isolanti delle macchine devono sopportare. Si è infatti passati da tecniche di controllo tradizionali, che consistevano nell’alimentare i motori in alternata direttamente con la rete sinusoidale a 50 Hz (o a 60 Hz), ad alimentazioni indirette, cioè realizzate interponendo tra la rete e la macchina un convertitore elettronico (inverter). Tali dispositivi operano una conversione di tipo ac/dc e dc/ac che permette, come nella modulazione Pulse Width Modulation (PWM), di poter variare la frequenza di alimentazione della macchina, generando una sequenza di impulsi di larghezza variabile. Si è quindi passati dalle tradizionali alimentazioni con forme d’onda alternate sinusoidali a forme di tensione impulsive e ad elevata frequenza, cioè caratterizzate da rapidi fronti di salita e di discesa (dell’ordine di qualche kV/µs). La natura impulsiva di queste forme d’onda ha aggravato la sollecitazione elettrica a cui sono sottoposti i materiali impiegati per l’isolamento dei conduttori degli avvolgimenti delle macchine. E’ importante notare che l’utilizzo dei dispositivi elettronici, che ormai si trovano sparsi nelle reti di bassa tensione, assorbono correnti ad elevato contenuto armonico sul lato di prelievo, hanno quindi un effetto distorcente che altera l’andamento sinusoidale della rete stessa. Quindi, senza opportuni filtri, anche tutte le altre utenze connesse nelle vicinanze, dimensionate per alimentazioni sinusoidali di tipo tradizionale, possono risentire di queste distorsioni armoniche. Per tutti questi motivi è sorta la necessità di verificare l’adeguatezza dei tradizionali isolamenti ad essere in grado di sopportare le sollecitazioni che derivano dall’utilizzo di convertitori elettronici. In particolare, per i motori elettrici tale interrogativo è stato posto in seguito al verificarsi di un elevato numero di guasti inaspettati (precoci), probabilmente imputabile alla diversa sollecitazione elettrica applicata ai materiali. In questa tesi ci si è occupati della progettazione di un inverter di media tensione, che verrà impiegato per eseguire prove sugli avvolgimenti di statore di motori (formette), al fine di condurre successivamente uno studio sull’invecchiamento dei materiali che compongono gli isolamenti. Tale inverter è in grado di generare sequenze di impulsi con modulazione PWM. I parametri caratteristici delle sequenze possono essere modificati in modo da studiare i meccanismi di degradazione in funzione della tipologia delle sollecitazioni applicate. Avendo a che fare con provini di natura capacitiva, il cui isolamento può cedere durante la prova, il sistema deve essere intrinsecamente protetto nei confronti di tutte le condizioni anomale e di pericolo. In particolare deve essere in grado di offrire rapide ed efficaci protezioni per proteggere l’impianto stesso e per salvaguardare la sicurezza degli operatori, dato l’elevato livello delle tensioni in gioco. Per questo motivo è stata pensata un’architettura di sistema ad hoc, in grado di fronteggiare le situazioni anomale in modo ridondante. E’ infatti stato previsto l’inserimento di un sistema di controllo basato sul CompactRIO, sul quale è stato implementato un software in grado di monitorare le grandezze caratteristiche del sistema e le protezioni che affiancheranno quelle hardware, realizzate con dispositivi elettronici. I dispositivi elettronici di protezione e di interfacciamento sono stati studiati, implementati e simulati con PSpice, per poi essere successivamente dimensionati e realizzati su schede elettroniche, avvalendosi del software OrCAD. La tesi è strutturata come segue: - Il primo capitolo tratta, in maniera generale, i motori asincroni trifase, gli inverter e l’invecchiamento dei sistemi isolanti, con particolare interesse alle sollecitazioni meccaniche, termiche ed elettriche nel caso di sollecitazioni impulsive; - Il secondo capitolo riguarda il sistema realizzato nel suo complesso. Inizialmente verrà descritto lo schema elettrico generale, per poi analizzare più nello specifico le varie parti di cui il sistema è composto, come l’inverter di media tensione, il generatore di media tensione, la scheda di disaccoppiamento ottico, la scheda di controllo del generatore di media tensione, la scheda OCP; - Il terzo capitolo descrive le lavorazioni meccaniche eseguite sulle scatole contenti i rami di inverter, la realizzazione delle fibre ottiche e riporta le fasi di collaudo dell’intero sistema. Infine, verranno tratte le conclusioni.
Resumo:
l’analiticità del metodo adottato ha permesso di ottenere una precisa e puntuale conoscenza del processo costruttivo, ottimo esempio per poter analizzare e confrontare i due programmi, Ms-Project 2007 e Primavera Project Planner P6.0, oggetto della presente trattazione; per comprendere quale software aiuta il Project Manager a gestire le complessità di un progetto per soddisfare i bisogni dei clienti, ad avere un controllo più stretto sulle strutture di progetto e sui suoi requisiti di rendicontazione, nonché la comprensione di tutto ciò che può ostacolare il corretto avanzamento del programma. Quale programma aiuta le aziende a pianificare e gestire sia i singoli progetti sia il programma complessivo, a implementare e monitorare i livelli di performance necessari e valutare agevolmente l’impatto delle modifiche di programma sui piani di lavoro, sui budget, sull’utilizzazione delle risorse. Un’efficace visione d’insieme dell’intero programma, combinata con la continua verifica delle metriche di produttività, consente ai program manager di mitigare proattivamente i rischi e ottenere come risultato il puntuale rispetto dei tempi e del budget.
Resumo:
Negli ultimi decenni il concetto di variabile latente ha riscosso un enorme successo nelle discipline statistiche come attestano i numerosi lavori scientifici presenti in letteratura. In particolare, nelle scienze sociali e in psicometria, l’uso del concetto di variabile latente è stato largamente adottato per far fronte al problema di misurare quantità che, in natura, non possono essere direttamente osservate. La vasta letteratura riguardante questa metodologia si espande, in maniera più limitata, anche al campo della ricerca economica ed econometrica. Nonostante esistano studi di modelli a struttura latente applicati a variabili di tipo economico, molto pochi sono i lavori che considerano variabili finanziarie e, finora, praticamente nessun ricercatore ha messo in connessione la teoria standard di portafoglio con la metodologia dei modelli statistici a variabili latenti. L’obiettivo del lavoro è quello di ricorrere alle potenzialità esplicative ed investigative dei metodi statistici a variabili latenti per l’analisi dei fenomeni finanziari. Si fa riferimento, in particolare, ai modelli a classe latente che consentono di sviluppare soluzioni metodologicamente corrette per importanti problemi ancora aperti in campo finanziario. In primo luogo, la natura stessa delle variabili finanziarie è riconducibile al paradigma delle variabili latenti. Infatti, variabili come il rischio ed il rendimento atteso non possono essere misurate direttamente e necessitano di approssimazioni per valutarne l’entità. Tuttavia, trascurare la natura non osservabile delle variabili finanziarie può portare a decisioni di investimento inopportune o, talvolta, addirittura disastrose. Secondariamente, vengono prese in considerazione le capacità dei modelli a classi latenti nel contesto della classificazione. Per i prodotti finanziari, infatti, una corretta classificazione sulla base del profilo (latente) di rischio e rendimento rappresenta il presupposto indispensabile per poter sviluppare efficaci strategie di investimento. Ci si propone, inoltre, di sviluppare un collegamento, finora mancante, tra uno dei principali riferimenti della finanza moderna, la teoria classica del portafoglio di Markowitz, e la metodologia statistica dei modelli a variabili latenti. In questo contesto, si vogliono investigare, in particolare, i benefici che i modelli a variabili latenti possono dare allo studio di ottimizzazione del profilo rischio - rendimento atteso di un portafoglio di attività finanziarie. Lo sviluppo di numeri indici dei prezzi delle attività finanziarie caratterizzati da una solida base metodologica rappresenta un ulteriore aspetto nel quale i modelli a classe latente possono svolgere un ruolo di fondamentale importanza. In particolare, si propone di analizzare il contesto dei numeri indici dei prezzi settoriali, che costituiscono uno dei riferimenti più importanti nelle strategie di diversificazione del rischio. Infine, il passaggio da una specificazione statica ad una analisi dinamica coglie aspetti metodologici di frontiera che possono essere investigati nell’ambito dei modelli markoviani a classi latenti. Il profilo latente di rischio – rendimento può essere, così, investigato in riferimento alle diverse fasi dei mercati finanziari, per le quali le probabilità di transizione consentono valutazioni di tipo previsivo di forte interesse.
Resumo:
INDICE INTRODUZIONE 1 1. DESCRIZIONE DEL SISTEMA COSTRUTTIVO 5 1.1 I pannelli modulari 5 1.2 Le pareti tozze in cemento armato gettate in opera realizzate con la tecnologia del pannello di supporto in polistirene 5 1.3 La connessione tra le pareti e la fondazione 6 1.4 Le connessioni tra pareti ortogonali 7 1.5 Le connessioni tra pareti e solai 7 1.6 Il sistema strutturale così ottenuto e le sue caratteristiche salienti 8 2. RICERCA BIBLIOGRAFICA 11 2.1 Pareti tozze e pareti snelle 11 2.2 Il comportamento scatolare 13 2.3 I muri sandwich 14 2.4 Il “ferro-cemento” 15 3. DATI DI PARTENZA 19 3.1 Schema geometrico - architettonico definitivo 19 3.2 Abaco delle sezioni e delle armature 21 3.3 Materiali e resistenze 22 3.4 Valutazione del momento di inerzia delle pareti estese debolmente armate 23 3.4.1 Generalità 23 3.4.2 Caratteristiche degli elementi provati 23 3.4.3 Formulazioni analitiche 23 3.4.4 Considerazioni sulla deformabilità dei pannelli debolmente armati 24 3.4.5 Confronto tra rigidezze sperimentali e rigidezze valutate analiticamente 26 3.4.6 Stima di un modulo elastico equivalente 26 4. ANALISI DEI CARICHI 29 4.1 Stima dei carichi di progetto della struttura 29 4.1.1 Stima dei pesi di piano 30 4.1.2 Tabella riassuntiva dei pesi di piano 31 4.2 Analisi dei carichi da applicare in fase di prova 32 4.2.1 Pesi di piano 34 4.2.2 Tabella riassuntiva dei pesi di piano 35 4.3 Pesi della struttura 36 4.3.1 Ripartizione del carico sulle pareti parallele e ortogonali 36 5. DESCRIZIONE DEL MODELLO AGLI ELEMENTI FINITI 37 5.1 Caratteristiche di modellazione 37 5.2 Caratteristiche geometriche del modello 38 5.3 Analisi dei carichi 41 5.4 Modello con shell costituite da un solo layer 43 5.4.1 Modellazione dei solai 43 5.4.2 Modellazione delle pareti 44 5.4.3 Descrizione delle caratteristiche dei materiali 46 5.4.3.1 Comportamento lineare dei materiali 46 6. ANALISI DEL COMPORTAMENTO STATICO DELLA STRUTTURA 49 6.1 Azioni statiche 49 6.2 Analisi statica 49 7. ANALISI DEL COMPORTAMENTO DINAMICO DELLA STRUTTURA 51 7.1 Determinazione del periodo proprio della struttura con il modello FEM 51 7.1.1 Modi di vibrare corrispondenti al modello con solai e pareti costituiti da elementi shell 51 7.1.1.1 Modi di vibrare con modulo pari a E 51 7.1.1.2 Modi di vibrare con modulo pari a 0,5E 51 7.1.1.3 Modi di vibrare con modulo pari a 0,1E 51 7.1.2 Modi di vibrare corrispondenti al modello con solai infinitamente rigidi e pareti costituite da elementi shell 52 7.1.2.1 Modi di vibrare con modulo pari a E 52 7.1.2.2 Modi di vibrare con modulo pari a 0,5E 52 7.1.2.3 Modi di vibrare con modulo pari a 0,1E: 52 7.1.3 Modi di vibrare corrispondenti al modello con solai irrigiditi con bielle e pareti costituite da elementi shell 53 7.1.3.1 Modi di vibrare con modulo pari a E 53 7.1.3.2 Modi di vibrare con modulo pari a 0,5E 53 7.1.3.3 Modi di vibrare con modulo pari a 0,1E 53 7.2 Calcolo del periodo proprio della struttura assimilandola ad un oscillatore semplice 59 7.2.1 Analisi svolta assumendo l’azione del sisma in ingresso in direzione X-X 59 7.2.1.1 Analisi svolta assumendo il modulo elastico E pari a 300000 Kg/cm2 59 7.2.1.1.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari ad E 59 7.2.1.1.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 61 7.2.1.1.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 63 7.2.1.1.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 66 7.2.1.2 Analisi svolta assumendo il modulo elastico E pari a 150000 Kg/cm2 69 7.2.1.2.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,5E 69 7.2.1.2.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari a 0,5E 71 7.2.1.2.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,5 E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 73 7.2.1.2.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,5 E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 76 7.2.1.3 Analisi svolta assumendo il modulo elastico E pari a 30000 Kg/cm2 79 7.2.1.3.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,1E 79 7.2.1.3.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari a 0,1E 81 7.2.1.3.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 83 7.2.1.3.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 86 7.2.2 Analisi svolta assumendo l’azione del sisma in ingresso in direzione Y-Y 89 7.2.2.1 Analisi svolta assumendo il modulo elastico E pari a 300000 Kg/cm2 89 7.2.2.1.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari ad E 89 7.2.2.1.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 91 7.2.2.1.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 93 7.2.2.1.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 98 7.2.2.1.5 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari ad E 103 7.2.2.1.6 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 105 7.2.2.1.7 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 107 7.2.2.1.8 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 112 7.2.2.2 Analisi svolta assumendo il modulo elastico E pari a 150000 Kg/cm2 117 7.2.2.2.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,5E 117 7.2.2.2.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari a 0,5E 119 7.2.2.2.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,5 E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 121 7.2.2.2.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,5 E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 126 7.2.2.2.5 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,5 E 131 7.2.2.2.6 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 133 7.2.2.2.7 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,5E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 135 7.2.2.2.8 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,5E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 140 7.2.2.3 Analisi svolta assumendo il modulo elastico E pari a 30000 Kg/cm2 145 7.2.2.3.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,1E 145 7.2.2.3.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari a 0,1E 147 7.2.2.3.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 149 7.2.2.3.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 154 7.2.2.3.5 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,1 E 159 7.2.2.3.6 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 161 7.2.2.3.7 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 163 7.2.2.3.8 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 168 7.3 Calcolo del periodo proprio della struttura approssimato utilizzando espressioni analitiche 174 7.3.1 Approssimazione della struttura ad una mensola incastrata di peso Q=ql avente un peso P gravante all’estremo libero 174 7.3.1.1 Riferimenti teorici: sostituzione di masse distribuite con masse concentrate 174 7.3.1.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 177 7.3.1.3 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 179 7.3.2 Approssimazione della struttura ad una mensola incastrata alla base, di peso Q=ql, avente un peso P gravante all’estremo libero e struttura resistente costituita dai soli “maschi murari”delle pareti parallele all’azione del sisma 181 7.3.2.1 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 181 7.3.2.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 186 7.3.3 Approssimazione della struttura ad un portale avente peso Qp = peso di un piedritto, Qt=peso del traverso e un peso P gravante sul traverso medesimo 191 7.3.3.1 Riferimenti teorici: sostituzione di masse distribuite con masse concentrate 191 7.3.3.2 Applicazione allo specifico caso di studio in esame con modulo ellastico E=300000 kg/cm2 192 7.3.3.3 Applicazione allo specifico caso di studio in esame con modulo ellastico E=30000 kg/cm2 194 7.3.4 Approssimazione della struttura ad un portale di peso Qp = peso di un piedritto, Qt=peso del traverso e avente un peso P gravante sul traverso medesimo e struttura resistente costituita dai soli “maschi murari”delle pareti parallele all’azione del sisma 196 7.3.4.1 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 196 7.3.4.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 201 7.3.5 Approssimazione della struttura ad una mensola incastrata di peso Q=ql avente le masse m1,m2....mn concentrate nei punti 1,2….n 206 7.3.5.1 Riferimenti teorici: metodo approssimato 206 7.3.5.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 207 7.3.5.3 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 209 7.3.6 Approssimazione della struttura ad un telaio deformabile con tavi infinitamente rigide 211 7.3.6.1 Riferimenti teorici: vibrazioni dei telai 211 7.3.6.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 212 7.3.6.3 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 215 7.3.7 Approssimazione della struttura ad una mensola incastrata di peso Q=ql avente masse m1,m2....mn concentrate nei punti 1,2….n e studiata come un sistema continuo 218 7.3.7.1 Riferimenti teorici: metodo energetico; Masse ripartite e concentrate; Formula di Dunkerley 218 7.3.7.1.1 Il metodo energetico 218 7.3.7.1.2 Masse ripartite e concentrate. Formula di Dunkerley 219 7.3.7.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 221 7.3.7.3 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 226 7.4 Calcolo del periodo della struttura approssimato mediante telaio equivalente 232 7.4.1 Dati geometrici relativi al telaio equivalente e determinazione dei carichi agenti su di esso 232 7.4.1.1 Determinazione del periodo proprio della struttura assumendo diversi valori del modulo elastico E 233 7.5 Conclusioni 234 7.5.1 Comparazione dei risultati relativi alla schematizzazione dell’edificio con una struttura ad un grado di libertà 234 7.5.2 Comparazione dei risultati relativi alla schematizzazione dell’edificio con una struttura a più gradi di libertà e a sistema continuo 236 8. ANALISI DEL COMPORTAMENTO SISMICO DELLA STRUTTURA 239 8.1 Modello con shell costituite da un solo layer 239 8.1.1 Analisi dinamica modale con spettro di risposta avente un valore di PGA pari a 0,1g 239 8.1.1.1 Generalità 239 8.1.1.2 Sollecitazioni e tensioni sulla sezione di base 242 8.1.1.2.1 Combinazione di carico ”Carichi verticali più Spettro di Risposta scalato ad un valore di PGA pari a 0,1g” 242 8.1.1.2.2 Combinazione di carico ”Spettro di Risposta scalato ad un valore di 0,1g di PGA” 245 8.1.1.3 Spostamenti di piano 248 8.1.1.4 Accelerazioni di piano 248 8.1.2 Analisi Time-History lineare con accelerogramma caratterizzato da un valore di PGA pari a 0,1g 249 8.1.2.1 Generalità 249 8.1.2.2 Sollecitazioni e tensioni sulla sezione di base 251 8.1.2.2.1 Combinazione di carico ” Carichi verticali più Accelerogramma agente in direzione Ye avente una PGA pari a 0,1g” 251 8.1.2.2.2 Combinazione di carico ” Accelerogramma agente in direzione Y avente un valore di PGA pari a 0,1g ” 254 8.1.2.3 Spostamenti di piano assoluti 257 8.1.2.4 Spostamenti di piano relativi 260 8.1.2.5 Accelerazioni di piano assolute 262 8.1.3 Analisi dinamica modale con spettro di risposta avente un valore di PGA pari a 0,3g 264 8.1.3.1 Generalità 264 8.1.3.2 Sollecitazioni e tensioni sulla sezione di base 265 8.1.
Resumo:
Le moderne tecniche di imaging e i recenti sviluppi nel campo della visione computazionale consentono sempre più diffusamente l'utilizzo di metodi di image analysis, specialmente in ambito medico e biologico, permettendo un maggiore supporto sia alla diagnosi, sia alla ricerca. Il lavoro svolto in questa tesi si pone in un contesto di ricerca di carattere interdisciplinare, e riguarda il progetto e la realizzazione di un‘interfaccia grafica per l'analisi di colture batteriche geneticamente modificate, marcate con proteine fluorescenti (GFP), acquisite tramite un microscopio ad epifluorescenza. Nota la funzione di risposta del sistema di acquisizione delle immagini, l'analisi quantitativa delle colture batteriche è effettuata mediante la misurazione di proprietà legate all'intensità della risposta al marcatore fluorescente. L'interfaccia consente un'analisi sia globale dei batteri individuati nell'immagine, sia di singoli gruppi di batteri selezionati dall'utente, fornendo utili informazioni statistiche, sia in forma grafica che numerica. Per la realizzazione dell'interfaccia sono state adottate tecniche di ingegneria del software, con particolare enfasi alla interazione uomo-macchina e seguendo criteri di usability, al fine di consentire un corretto utilizzo dello strumento anche da parte di personale senza conoscenza in campo informatico.
Resumo:
Il seguente lavoro di tesi ha come scopo l'illustrazione delle fasi di progetto di un impianto di microcogenerazione nell'ambito territoriale dell'Emilia Romagna. In particolare verrà fatta un'analisi economica di fattibilità, un'analisi energetica di calcolo delle prestazioni dell'impianto mediante norma UNI-TS 11300-IV, il progetto e la scelta dei componenti afferenti l'impianto di riscaldamento delle utenze e un'analisi dei documenti amministrativi disciplinanti la messa in funzione nonché la valorizzazione dell'energia elettrica immessa in rete. Il lavoro è stato eseguito su quindici impianti afferenti ad altrettante utenze con caratteristiche di utilizzo dell'impianto diversificate tra loro.
Resumo:
La green chemistry può essere definita come “l’utilizzo di una serie di principi che riducono o eliminano l’uso o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici”. . È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Lo scopo del presente lavoro di tesi è l’analisi degli impatti ambientali associati a processi chimici, ambito ancora poco sviluppato nella letteratura degli studi di LCA. Viene studiato e modellato il ciclo di vita (dall’ottenimento delle materie prime fino alla produzione del prodotto) della reazione di ammonossidazione per la produzione di acrilonitrile, valutando e comparando due alternative di processo: quella tradizionale, che utilizza propilene ( processo SOHIO), e le vie sintetiche che utilizzano propano, ad oggi poco sviluppate industrialmente. Sono stati pertanto creati sei scenari: due da propene (SOHIO FCC, con propene prodotto mediante Fluid Catalytic Cracking, e SOHIO Steam), e quattro da propano (ASAHI, MITSUBISHI, BP povero e ricco in propano). Nonostante la produzione dell’alcano abbia un impatto inferiore rispetto all’olefina, dovuto ai minori stadi di processo, dai risultati emerge che l’ammonossidazione di propano ha un impatto maggiore rispetto a quella del propene. Ciò è dovuto ai processi catalitici che utilizzano propano, che differiscono per composizione e prestazioni, rispetto a quelli da propene: essi risultano meno efficienti rispetto ai tradizionali, comportando maggiori consumi di reattivi in input . Dai risultati emerge che gli scenari da propano presentano maggiori impatti globali di quelli da propene per le categorie Cambiamento climatico, Formazione di materiale e Consumo di combustibili fossili. Invece per la categoria Consumo di metalli un impatto maggiore viene attribuito ai processi che utilizzano propene, per la maggior percentuale di metalli impiegata nel sistema catalitico, rispetto al supporto. L’analisi di contributo, eseguita per valutare quali sono le fasi più impattanti, conferma i risultati. Il maggior contributo per la categoria Consumo di combustibili fossili è ascrivibile ai processi di produzione del propano, dell’ammoniaca e del solfato di ammonio ( legato all’ammoniaca non reagita ). Stessi risultati si hanno per la categoria Cambiamento climatico, mentre per la categoria Formazione di materiale particolato, gli impatti maggiori sono dati dai processi di produzione del solfato di ammonio, del propano e dell’acido solforico (necessario per neutralizzare l’ammoniaca non reagita). Per la categoria Consumo di metalli, il contributo maggiore è dato dalla presenza del catalizzatore. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.