546 resultados para Divisione del lavoro, Soglia fissa, Soglia variabile
Resumo:
Questo lavoro di tesi ha lo scopo di analizzare una frana appenninica riattivatasi a partire dal dicembre 2013 nel Comune di Grizzana Morandi (BO). L’operazione di studio della frana è iniziata partendo da una accurata campagna d’indagine eseguita in campo: per prima cosa è stata eseguita una dettagliata perlustrazione del corpo di frana e del territorio limitrofo, questa operazione comprende il rilevamento geologico di dettaglio ed il tracciamento (tramite dispositivo GPS) del profilo del deposito e della corona di distacco. Di fondamentale interesse sono state poi le informazioni ricavate dall’eseguimento di tre carotaggi sul corpo di frana, questi hanno permesso l’estrazione di carote utili a definire la stratigrafia verticale del luogo (fino ai 20 metri di profondità) e prelevare campioni di terreno per effettuare specifiche prove di laboratorio. Parte di queste prove sono state eseguite da un laboratorio di commissione, altre sono state eseguite nel laboratorio geotecnico dell’Università. I dati acquisiti tramite il monitoraggio, effettuato tramite l’istallazione di vari strumenti sul corpo di frana (piezometri, inclinometri ed estensimetri) sono risultati utili al fine di determinare la profondità della superficie di scorrimento, la velocità di movimento del deposito e la variazione del livello piezometrico. Le osservazioni effettuate sul campo e i dati provenienti dai sondaggi, dal monitoraggio e dalle prove di laboratorio sono stati elaborati e commentati, essi sono stati utilizzati per definire il modello geologico tecnico del territorio analizzato. Dalla definizione del modello geologico tecnico è stata effettuata la back analysis (la simulazione delle condizioni presenti sul versante al momento della rottura) tramite software specifico. L’operazione finale è stata la proposta (e la conseguente calibrazione) di diversi sistemi di messa in sicurezza del versante, utili a garantire nel tempo la stabilità del pendio analizzato.
Resumo:
Il Lago di Cavazzo (o dei Tre Comuni) è il più esteso lago naturale del Friuli Venezia Giulia. Situato nelle Prealpi Carniche, in provincia di Udine, è ubicato in un’antica valle scavata in epoca pre – glaciale dal fiume Tagliamento, che oggi scorre circa 3 km ad Est. A partire dagli anni ’40, la S.A.D.E. (ora Edipower) ottenne le concessioni per la costruzione di una serie di impianti idroelettrici in tutto il Friuli Venezia Giulia che nel 1954 portò alla realizzazione della Centrale idroelettrica di Somplago, costruita in caverna lungo la sponda Nord – occidentale del lago. La Centrale turbina le acque di scarico provenienti dai bacini di accumulo superiori («Lumiei», «Ambiesta») e da altre prese minori sul Tagliamento, immettendo a sua volta le acque turbinate all’interno del lago di Cavazzo tramite galleria. Dai dati disponibili in letteratura, dalle cronache e dai resoconti riportati dalla popolazione locale, l’attività della Centrale ha notevolmente influenzato l’equilibrio di questo ambiente, in termini geologici, biologici ed idrologici, soprattutto a causa dell’enorme volume di acqua fredda (e relativi sedimenti) scaricata, delle continue variazioni di livello dell’acqua per regolarne il volume di invaso e dello scavo del canale emissario, localizzato nell’estremità meridionale. Nel Maggio 2015 l’ISMAR – CNR di Bologna ha effettuato un rilievo geofisico del lago, tramite tecniche non distruttive di ecografia e sismica a riflessione, in grado di analizzare la stratigrafia superficiale e la distribuzione degli apporti sedimentari, con lo scopo di quantificare da questo punto di vista l’impatto della Centrale sul lago. I dati acquisiti, che comprendono profili sismici ad alta risoluzione, profili batimetrici single/multi – beam ed immagini side – scan sonar, sono stati successivamente elaborati per realizzare varie mappe tematiche (morfobatimetria, riflettività, gradiente topografico e spessore dei sedimenti penetrabili dal segnale sismico) che hanno permesso di descrivere l’attuale assetto deposizionale del lago. Sono stati inoltre effettuati alcuni carotaggi in vari punti della conca lacustre, al fine di quantificare il tasso di sedimentazione e le caratteristiche fisiche dei depositi. Scopo di questo lavoro di Tesi è stato analizzare, interpretare e discutere in una prospettiva di evoluzione ambientale del lago i dati geofisici e geologici raccolti nell’ambito della campagna del Maggio 2015 e reperiti in bibliografia.
Resumo:
Dopo aver dato una definizione formale per il modello di Erdos-Rényi, si dimostra che in un grafo ER il grado dei nodi (misura della connessione) risulta essere una variabile aleatoria con distribuzione binomiale, mentre il clustering (misura della densità di archi a livello locale) tende a zero. Successivamente si determinano le funzioni soglia per alcune proprietà monotone particolarmente significative, consentendo così di descrivere diverse configurazioni possibili per un grafo ER al variare dei suoi parametri. Infine, si mostra come si possano utilizzare i grafi ER per modellizzare la diffusione di una malattia infettiva all’interno di una popolazione numerosa.
Resumo:
I cardiomiociti derivanti da cellule staminali pluripotenti indotte (hiPSC-CMs) costituiscono un nuovo approccio per lo studio delle proprietà delle cellule cardiache sia degli individui sani che di quelli affetti da malattie ereditarie e possono rappresentare inoltre una piattaforma in vitro per la scoperta di nuovi farmaci e terapie rigenerative. Il grande impatto delle hiPSC-CMs nell’ambito della ricerca si deve soprattutto alle loro proprietà elettrofisiologiche: queste cellule non solo esprimono fenotipi genici e proprietà delle correnti ioniche tipiche delle cellule cardiache, ma sono anche in grado di riprodurre fenomeni aritmici, come le EAD, a seguito della somministrazione di farmaci. Grazie anche alla grande potenza di calcolo oggi disponibile è possibile supportare la pratica in vitro con modelli in silico, abbattendo sia i costi che i tempi richiesti dagli esperimenti in laboratorio. Lo scopo di questo lavoro è quello di simulare il comportamento delle hiPSC-CMs di tipo ventricolare in risposta alla somministrazione di farmaci che interagiscono con la corrente di potassio IKr, principale responsabile della ripolarizzazione cardiaca. L’assunzione di certi farmaci può comportare infatti una riduzione della IKr, con conseguente prolungamento della fase di ripolarizzazione del potenziale d’azione cardiaco. Questo meccanismo è causa dell’insorgenza della sindrome del QT lungo di tipo 2, che in casi estremi può degenerare in aritmie gravi. Ciò suggerisce che queste cellule rappresentano un importante strumento per la valutazione del rischio pro-aritmico che può essere facilitata da simulazioni in silico effettuate utilizzando modelli computazionali basati su dati fisiologici.
Resumo:
L'espressione del gene MYCN è un importante indicatore della severità del NBL. Poiché il numero di copie di MYCN è un indice grezzo della sua espressione quantificarle utilizzando tecniche come la “fluorescent in situ hybridization” (FISH) può servire a formulare una stima del livello di espressione MYCN [Shapiro 1993]. Tuttavia, l'espressione aberrante di MYCN nel NBL non è sempre associata all'amplificazione genica; pertanto la valutazione diretta del livello di espressione di questo gene sarebbe un miglior indicatore prognostico. Questa tesi è stata sviluppata nell'ambito di un progetto che si propone di realizzare un sensore biomolecolare sintetico per l'identificazione del livello di espressione di MYCN. Di seguito saranno presentati i dettagli relativi alla progettazione della topologia circuitale e all’analisi in silico che sono state condotte per caratterizzare il comportamento dinamico del sistema. Questo lavoro è stato svolto nel laboratorio di Ingegneria Cellulare e Molecolare "S. Cavalcanti", presso la Sede di Cesena del Dipartimento di Ingegneria dell'Energia elettrica e dell'Informazione "Guglielmo Marconi" (DEI) dell’Ateneo di Bologna.
Resumo:
In questo lavoro si è cercato di comprendere il processo di satinatura del vetro e la progettazione di un impianto finalizzato a questo scopo. Sono stati analizzati il funzionamento e le problematiche riscontrate cercando di ottimizzare le soluzioni avendo come principi la sicurezza, l'affidabilità e il basso consumo energetico.
Resumo:
Studio di fattibilità della conversione del Vought V-173 per il volo ad alta quota. Per realizzare l'intero lavoro si è adoperato il software di fluidodinamica computazionale Flow Simulation di SolidWorks e si è scelto l'ambiente Matlab per la fase di elaborazione e presentazione dati. A partire dal modello tridimensionale in SolidWorks del V-173 si sono ricreate le curve CL e CD a partire dai punti ottenuti dalle simulazioni per diverse configurazioni del velivolo. Si è valutata l'aerodinamica del velivolo senza la presenza di eliche e di ipersostentatori e successivamente si sono seguite due strade diverse per valutare il comportamento del velivolo: nel primo caso si sono eseguiti studi dell'aerodinamica del Pancake in presenza degli ipersostentatori già presenti sul velivolo originario (i plain flap). In secondo luogo, tenendo in considerazione che il Pancake è un aeroplano bielica, si è voluta studiare l'influenza delle due eliche sulla sua aerodinamica: dopo aver riprodotto nel modo più verosimile entrambe le eliche utilizzando SolidWorks si è fatto uno studio di massima ricavando risultati che potessero indicare la compatibilità tra elica e velivolo a seguito dei risultati sperimentali ottenuti con Flow Simulation. Questa parte è stata realizzata per lo stesso tipo di elica tripala, ma prendendo in considerazione due diversi diametri, una di 4:9m e una da 2:5m.
Resumo:
Il presente elaborato ha lo scopo di descrivere le fasi di riparazione del trave di coda di un Cessna Super Skymaster 337A danneggiatosi durante le fasi di rimessaggio in hangar. Per prima cosa andremo ad analizzare le normative in materia di manutenzione degli aeromobili, in particolare la circolare 13 del RAI (Metodi accettabili per la manutenzione degli aeromobili) e la circolare 43.13-1A delle FAA (Acceptable methods, techniques, and practices-Aircraft ispection and repair). Verificheremo poi la tipologia del danno subito dal velivolo e, rifacendoci anche al Service Manual del costruttore, andremo a progettare la riparazione. Riparazioni estese a rivestimenti resistenti su strutture a guscio, infatti, devono preferibilmente essere fatte seguendo le specifiche raccomandazioni del costruttore dell’aeromobile. In molti casi, soprattutto se il danno non è esteso, le parti della riparazione possono essere progettate, e ne può essere dimostrata l’adeguata resistenza, senza calcolare i carichi e le sollecitazioni di progetto, considerando nel modo dovuto il materiale e le dimensioni delle parti originali e dei giunti chiodati. La cosa importante è che la parte riparata dovrà risultare pari all’originale per quanto riguarda la robustezza in relazione a tutti i tipi di carichi e alla rigidezza generale. Nel nostro caso andremo comunque a effettuare un’analisi strutturale per verificare l’effettiva correttezza dei principi contenuti nel manuale di manutenzione. Una volta verificato questo, procederemo con la realizzazione della riparazione soffermandoci sulle caratteristiche dei materiali utilizzati e sulle metodologie utilizzate durante la lavorazione. A lavoro ultimato trarremo poi le dovute conclusioni.
Resumo:
Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.
Resumo:
Il makeup, come strumento atto a modificare i tratti somatici di un individuo per aumentarne la bellezza, è largamente diffuso e socialmente accettabile al giorno d’oggi. Per la sua facile reperibilità, semplicità di utilizzo e capacità di alterare le caratteristiche principali di un volto, può diventare uno strumento pericoloso per chi volesse sottrarsi a dei controlli. In questo lavoro di tesi sono stati analizzati algoritmi presenti in letteratura che cercano di arginare gli effetti di alterazione di un viso, causati dal makeup, durante un processo di riconoscimento del volto. Inoltre è stato utilizzato un software per verificare la robustezza dei programmi commerciali in merito al problema del makeup e confrontare poi i risultati riscontrati in letteratura con quelli ottenuti dai test.
Resumo:
Il presente lavoro si riferisce ad una delle attività di monitoraggio topografico più diffuse e consolidate: il controllo altimetrico per mezzo della livellazione geometrica di precisione, finalizzato alla determinazione dei dislivelli – e della loro variazione nel tempo – tra capisaldi appositamente istituiti sulla struttura. Va ricordato infatti che in Topografia non è possibile determinare direttamente la quota assoluta di un punto, ma solamente il dislivello, ossia la differenza di quota fra punti della superficie fisica. Il caso di studio si riferisce nello specifico ad un oggetto di grandissimo interesse: le Due Torri di Bologna. La Torre degli Asinelli e la Torre Garisenda di Bologna sono infatti soggette da lungo tempo ad una attività di monitoraggio altimetrico con la tecnica della livellazione geometrica di precisione, oggi realizzata con strumentazione digitale. L’attività viene condotta dall’area di Geomatica del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Università di Bologna in collaborazione con il Comune di Bologna. Scopo della tesi è illustrare gli aspetti teorici alla base della tecnica della livellazione geometrica e le operazioni che sono state eseguite sul campo ed in laboratorio, in affiancamento a quanto effettuato dal DICAM con il coordinamento del Prof. G. Bitelli. Nel Capitolo 1 viene descritta la metodologia di rilevamento mediante livellazione geometrica di precisione e la tecnica di elaborazione dei dati tramite la compensazione per osservazioni indirette secondo il principio dei minimi quadrati. Nel Capitolo 2 viene presentato il caso di studio e descritto il rilievo che è stato effettuato durante il periodo della tesi. Vengono illustrate le fasi operative sul campo e la successiva fase di predisposizione dei dati per la compensazione. Infine si illustra l’elaborazione numerica realizzata per la determinazione delle quote nel sistema di riferimento locale utilizzato.
Resumo:
Il lavoro si pone l’obiettivo di studiare in modo approfondito il fenomeno del ritiro del calcestruzzo, in un primo momento come fenomeno fisico verificandone gli effetti su elementi strutturali semplici, per poi approfondire in un secondo momento gli effetti indotti su una struttura reale, nello specifico su un impalcato da ponte a sezione mista. Tramite questo percorso di studio articolato in fasi di studio prettamente teoriche, seguite dall’analisi del fenomeno su modelli realizzati con software FEM, si vuole indagare il fenomeno del ritiro del calcestruzzo dal punto di vista fisico, capire l’entità delle azioni che si manifestano nelle strutture come effetto di tale fenomeno ed infine valutare se effettivamente il ritiro abbia rilevanza pratica solo nell’ambito delle verifiche allo Stato Limite di Esercizio.
Resumo:
In questa tesi presentiamo una strategia, e la relativa implementazione, per il problema dell’allocazione e schedulazione, su risorse unarie, di applicazioni multi-task periodiche, composte da attività che interagiscono fra loro e la cui durata è incerta. Lo scopo che ci si propone di raggiungere, è l’implementazione di una strategia di allocazione schedulazione che garantisca robustezza ed efficienza, in quei contesti in cui la conoscenza a priori è limitata e in cui le applicazioni si ripetono indefinitamente nel tempo. Per raggiungere questo scopo, sarà usato un approccio ibrido fra statico e dinamico. Staticamente è generata una soluzione del problema, sfruttando la programmazione a vincoli, in cui le durate delle attività sono arbitrariamente fissate. Questa soluzione, non rappresenta la soluzione del nostro problema, ma è utilizzata per generare un ordinamento delle attività, che compongono le applicazioni periodiche. Dinamicamente, sfruttando l’ordinamento ottenuto, è effettuata l’allocazione e la schedulazione effettiva delle applicazioni periodiche, considerando durate variabili per le attività. L’efficienza ottenuta applicando il nostro approccio è valutata effettuando test su una vasta gamma di istanze, sia industriali, sia sintetiche appositamente generate. I risultati sono confrontati con quelli ottenuti, per le stesse istanze, applicando un approccio puramente statico. Come si vedrà, in alcuni casi, è possibile anche quadruplicale la velocità di completamento delle applicazioni trattate.
Resumo:
In questo lavoro di tesi ci proponiamo di determinare lo spessore degli isotopi ^157Gd e ^155Gd in vista della misura della sezione d’urto di cattura neutronica presso la facility n_TOF del CERN. La principale motivazione dell’esperimento è legata alla necessità di ottenere misure più accurate per le applicazioni ai reattori nucleari. Inoltre, i nuovi risultati, potranno essere sfruttati anche per applicazioni ai recenti sviluppi nella Terapia di Cattura Neutronica e per costruire nuovi rivelatori nell’ambito della ricerca del neutrino. La misura sarà effettuata nella prima area sperimentale EAR-1 di n_TOF, equipaggiata con rivelatori, come per esempio gli scintillatori liquidi al benzene deuterato (C6 D6) particolarmente adatti per questi tipi di misura. La sezione d’urto di questi due isotopi cambia di molti ordini di grandezza al variare dell’energia dei neutroni incidenti. Per questo motivo, lo studio effettuato in questa tesi ha mostrato che sono necessari due campioni altamente arricchiti per ogni isotopo da misurare: un campione estremamente sottile per energie del neutrone fino a 100 meV, e uno più spesso per energie maggiori. Inoltre per questi campioni sono stati determinati le densità areali necessarie per lo svolgimento dell’esperimento affinchè avvenga il fenomeno di trasmissione dei neutroni.
Resumo:
In questo lavoro vogliamo studiare l'evoluzione dell'elettromagnetismo classico ed i fondamenti teorici della teoria classica del campo elettromagnetico. Riprenderemo i risultati sperimentali principali costruendo una teoria coerente dell'interazione elettromagnetica sfruttando il formalismo Lagrangiano già sviluppato per i sistemi meccanici. Lo studio delle proprietà del campo elettromagnetico è di fondamentale importanza per la fisica teorica: la sua relativa semplicità lo rende un buon candidato per lo sviluppo del formalismo necessario alla descrizione dei sistemi ad infiniti gradi di libertà. Questo servirà inoltre come punto di partenza per lo sviluppo di teorie di campo quantistiche più avanzate.