193 resultados para Processi stazionari, serie storiche.


Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa trattazione è analizzato il tema della ventilazione negli ambienti indoor. Oggi questo argomento è di notevole interesse a causa di una serie di fattori molto importanti: - L’uomo trascorre la maggior parte del tempo in spazi chiusi - L’Organizzazione Mondiale della Sanità sottolinea come molte malattie, tra cui asma e allergie, derivino dall’eccesso di umidità interna e dalla presenza di muffe - Gli stili di vita lavorativi sono differenti rispetto al passato: non c’è più tempo per aprire adeguatamente le finestre - L’aria interna è da 10 a 100 volte più inquinata di quella esterna - Negli ambienti i materiali di arredo e i prodotti per la pulizia possono emettere sostanze nocive - L’infiltrazione dai serramenti, con la costruzione di edifici sempre più ermetici e a bassa permeabilità all’aria, risulta insufficiente per garantire un corretto ricambio - Le nuove leggi in materia di risparmio energetico impongono limiti sul fabbisogno energetico di riscaldamento, in parte dovuto ai processi di ventilazione. Vengono quindi analizzati i due sistemi di ventilazione possibili ad oggi in campo residenziale: la ventilazione naturale e la ventilazione meccanica controllata (VMC) applicati poi ad un edificio nel quartiere di Corticella (BO). Sono stati posti poi a confronto i due sistemi nel calcolo dei fabbisogni energetici per ventilazione e nelle relative incidenze rispetto al termine legato allo scambio termico per trasmissione. Viene proposta infine un'ipotesi di realizzazione di impianto di ventilazione meccanica integrato con una riqualificazione architettonica completa dell'edificio per il raggiungimento di elevate prestazioni energetiche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il seguente elaborato rappresenta un'applicazione della ringegnerizzazione di processo nel settore creditizio, in particolare nel processo di erogazione del leasing. Il lavoro è stato strutturato attraverso la descrizione delle attività operative e decisionali dell'azienda in esame, attraverso lo sviluppo di mappature di processo con logica BPMN.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The reactivty of poly(glycidyl methacrylate), obtained by RAFT controlled radical polymerization, has been investigated with a nucelophilic agent, such as morpholine, in various aprotic polar solvents in order to optimize the reaction (time and nucleophile excess). A strong interaction between polymer and solvent, gained by hydrogen bonds, during the process has proved to be essential in order to lower the reaction time and the nucelophilic agent excess. Dissimilar behaviors have been detected by GPC analysis due to the reactivity of the sulfhydryl formed during the RAFT's aminolysis. The various solvents lead to conditions in which different inter and intra-chain associations occur; the result is the formation of dimers, trimers and tetramers (to a less extent) in the first case, and cyclical structures in the second one. The reactivity of the hydroxy group, formed during the ring opening reaction, has been further investigated in order to link isothiocyanate-functionalized fluorescent marker along the polymeric chain.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo lavoro di tesi sono stati effettuati studi conformazionali di 2-arilpiridine orto-sostituite su entrambi gli anelli aromatici. Essendo questi sistemi dotati di sostituenti relativamente ingombranti, le rotazioni attorno all’asse arile-arile risultano essere limitate e la molecola può presentarsi sotto forma di due enantiomeri conformazionali. È stato effettuato un paragone tra le energie di attivazione di due serie di 2-arilpiridine variamente sostituite con una serie di molecole aventi sostituenti analoghi ma caratterizzata dall’assenza di atomi di azoto piridinici. Nel caso di quest’ultima serie, i fattori che regolano le barriere rotazionali sono da imputare a motivazioni di tipo puramente sterico. La nucleofugacità è un parametro importante che interviene nella determinazione delle energie di attivazione di questo tipo di processi: è stato osservato sperimentalmente che gruppi uscenti peggiori destabilizzino maggiormente lo stato di transizione di un processo di interconversione, mentre molecole aventi atomi più elettronegativi sul gruppo uscente presentino energie di attivazione inferiori. Le barriere rotazionali sono state misurate tramite NMR dinamico e razionalizzate grazie all’aiuto di calcoli eseguiti con metodo DFT, necessari per prevedere le geometrie degli stati fondamentali e di transizione delle molecole studiate.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ticketing web based

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tecnica di posizionamento GPS costituisce oggi un importante strumento per lo studio di diversi processi tettonici e geodinamici a diverse scale spaziali. E’ possibile infatti usare dati GPS per studiare sia i movimenti delle placche tettoniche a scala globale, sia i lenti movimenti relativi attraverso singole faglie. I campi di applicazione del GPS sono aumentati considerevolmente negli ultimi anni grazie all’incremento del numero di stazioni distribuite sulla Terra e al perfezionamento delle procedure di misura ed elaborazione dati. Tuttavia mentre le velocità di spostamento orizzontali sono da tempo largamente studiate, quelle verticali non lo sono altrettanto perché richiedono il raggiungimento di precisioni sub millimetriche e risultano inoltre affette da numerose fonti di errore. Lo scopo di questo lavoro è quello di ricavare i tassi di deformazione verticale della litosfera in Europa Occidentale a partire dalle misure di fase GPS, passando per l’analisi delle serie temporali, e di correggere tali velocità per il contributo dell’aggiustamento glacio-isostatico (Glacial Isostatic Adjustment, GIA), modellato utilizzando il software SELEN (SEa Level EquatioN solver). Quello che si ottiene è un campo di velocità depurato dal contributo del GIA e rappresentante una stima dei tassi di deformazione verticale relativi all’area in esame associati a processi deformativi diversi dal GIA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nell'ultimo decennio il trend topic nell'ambito dell'insegnamento dell'informatica è il pensiero computazionale. Concetto già presente, è stato risaltato nel 2006 da Jeannette Wing, che ha mostrato come l'informatica abbia portato alla scienza non solo strumenti (computer e linguaggi di programmazione) ma anche innovazioni nel modo di pensare (es. algoritmo shotgun per sequenziamento del DNA umano). Il pensiero computazionale è il processo mentale coinvolto nel formulare problemi e loro soluzioni, rappresentate in una forma che sia effettivamente eseguibile da un agente che processa informazioni. Si tratta di “pensare come un informatico” quando si affronta un problema. Dopo aver passato in rassegna la letteratura sul pensiero computazionale, viene proposta una definizione del concetto. Si prende atto che la ricerca in questi anni sia rimasta molto legata ai linguaggi di programmazione, concetto centrale dell’Informatica. Vengono allora proposte due strade. La prima strada consiste nella riesumazione di tutta una serie di studi di Psicologia della Programmazione, in particolare: studi sulle misconcezioni, che si occupano di individuare i concetti che sono compresi male dai programmatori novizi, e studi sul commonsense computing, che cercano di capire come persone che non hanno mai ricevuto nozioni di programmazione - o più in generale di informatica – esprimano (in linguaggio naturale) concetti e processi computazionali. A partire da queste scoperte, si forniscono una serie di consigli per insegnare al meglio la programmazione (con i linguaggi attuali, con nuovi linguaggi appositamente progettati, con l'aiuto di strumenti ed ambienti ad-hoc) al più ampio pubblico possibile. La seconda strada invece porta più lontano: riconoscere il pensiero computazionale come quarta abilità di base oltre a leggere, scrivere e calcolare, dandogli dunque grande importanza nell’istruzione. Si vuole renderlo “autonomo” rispetto alla programmazione, fornendo consigli su come insegnarlo senza - ma anche con - l'ausilio di un formalismo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bone is continually being removed and replaced through the actions of basic multicellular units (BMU). This constant upkeep is necessary to remove microdamage formed naturally due to fatigue and thus maintain the integrity of the bone. The repair process in bone is targeted, meaning that a BMU travels directly to the site of damage and repairs it. It is still unclear how targeted remodelling is stimulated and directed but it is highly likely that osteocytes play a role. A number of theories have been advanced to explain the microcrack osteocyte interaction but no complete mechanism has been demonstrated. Osteocytes are connected to each other by dendritic processes. The “scissors model" proposed that the rupture of these processes where they cross microcracks signals the degree of damage and the urgency of the necessary repair. In its original form it was proposed that under applied compressive loading, microcrack faces will be pressed together and undergo relative shear movement. If this movement is greater than the width of an osteocyte process, then the process will be cut in a “scissors like" motion, releasing RANKL, a cytokine known to be essential in the formation of osteoclasts from pre-osteoclasts. The main aim of this thesis was to investigate this theoretical model with a specific focus on microscopy and finite element modelling. Previous studies had proved that cyclic stress was necessary for osteocyte process rupture to occur. This was a divergence from the original “scissors model" which had proposed that the cutting of cell material occurred in one single action. The present thesis is the first study to show fatigue failure in cellular processes spanning naturally occurring cracks and it's the first study to estimate the cyclic strain range and relate it to the number of cycles to failure, for any type of cell. Rupture due to shear movement was ruled out as microcrack closing never occurred, as a result of plastic deformation of the bone. Fatigue failure was found to occur due to cyclic tensile stress in the locality of the damage. The strain range necessary for osteocyte process rupture was quantified. It was found that the lower the process strain range the greater the number of cycles to cell process failure. FEM modelling allowed to predict stress in the vicinity of an osteocyte process and to analyse its interaction with the bone surrounding it: simulations revealed evident creep effects in bone during cyclic loading. This thesis confirms and dismisses aspects of the “scissors model". The observations support the model as a viable mechanism of microcrack detection by the osteocyte network, albeit in a slightly modified form where cyclic loading is necessary and the method of rupture is fatigue failure due to cyclic tensile motion. An in depth study was performed focusing on microscopy analysis of naturally occurring cracks in bone and FEM simulation analysis of an osteocyte process spanning a microcrack in bone under cyclic load.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nell'elaborato è affrontata l'analisi dei linguaggi formali per la mappatura dei processi e di come siano efficaci nella messa in evidenza di eventuali criticità. Viene applicato ad un caso studio:l'azienda "Tema Sinergie spa". Le criticità evidenziate suggeriscono all'azienda come azione di miglioramento l'implementazione di un sistema di Customer Relationship Management. Nella trattazione sarà affrontato il tema CRM, sulla base della letteratura presente.Infine viene proposta una linea guida applicata al caso, affinchè il futuro sistema CRM aziendale non subisca fallimenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi presenta delle metodologie per l'analisi e il miglioramento dei processi, con particolare riferimento all'applicazione del BPR - Business Process Reengineering all'interno di un contesto aziendale reale. L'obiettivo principale è lo sviluppo di una mappatura dei processi attuali in Tema Sinergie e l'analisi delle principali criticità evidenziate dal suddetto lavoro. Infine, si evidenzia come la progettazione e l'integrazione di un sistema CRM, per la gestione dei servizi post-vendita, possa portare notevoli benefici in termini di costi, tempi e livello di servizio fornito al cliente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La stima degli indici idrometrici in bacini non strumentati rappresenta un problema che la ricerca internazionale ha affrontato attraverso il cosiddetto PUB (Predictions on Ungauged Basins – IAHS, 2002-2013). Attraverso l’analisi di un’area di studio che comprende 61 bacini del Sud-Est americano, si descrivono e applicano due tecniche di stima molto diverse fra loro: il metodo regressivo ai Minimi Quadrati Generalizzati (GLS) e il Topological kriging (TK). Il primo considera una serie di fattori geomorfoclimatici relativi ai bacini oggetto di studio, e ne estrae i pesi per un modello di regressione lineare dei quantili; il secondo è un metodo di tipo geostatistico che considera il quantile come una variabile regionalizzata su supporto areale (l’area del bacino), tenendo conto della dislocazione geografica e l’eventuale struttura annidata dei bacini d’interesse. L’applicazione di questi due metodi ha riguardato una serie di quantili empirici associati ai tempi di ritorno di 10, 50, 100 e 500 anni, con lo scopo di valutare le prestazioni di un loro possibile accoppiamento, attraverso l’interpolazione via TK dei residui GLS in cross-validazione jack-knife e con differenti vicinaggi. La procedura risulta essere performante, con un indice di efficienza di Nash-Sutcliffe pari a 0,9 per tempi di ritorno bassi ma stazionario su 0,8 per gli altri valori, con un trend peggiorativo all’aumentare di TR e prestazioni pressoché invariate al variare del vicinaggio. L’applicazione ha mostrato che i risultati possono migliorare le prestazioni del metodo GLS ed essere paragonabili ai risultati del TK puro, confermando l’affidabilità del metodo geostatistico ad applicazioni idrologiche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Risolvere il problema isoperimetrico in R^2 significa determinare la figura piana avente area maggiore tra tutte le figure aventi ugual perimetro. In questo lavoro trattiamo la risoluzione del problema isoperimetrico in R^2 proposta da Hurwitz, il quale, basandosi esclusivamente sulle proprietà analitiche delle serie di Fourier, è riuscito a dimostrare che la circonferenza è l'unica curva piana, semplice, chiusa e rettificabile con l'area massima avendo fissato il perimetro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi si è studiato un metodo per modellare e virtualizzare tramite algoritmi in Matlab le distorsioni armoniche di un dispositivo audio non lineare, ovvero uno “strumento” che, sollecitato da un segnale audio, lo modifichi, introducendovi delle componenti non presenti in precedenza. Il dispositivo che si è scelto per questo studio il pedale BOSS SD-1 Super OverDrive per chitarra elettrica e lo “strumento matematico” che ne fornisce il modello è lo sviluppo in serie di Volterra. Lo sviluppo in serie di Volterra viene diffusamente usato nello studio di sistemi fisici non lineari, nel caso in cui si abbia interesse a modellare un sistema che si presenti come una “black box”. Il metodo della Nonlinear Convolution progettato dall'Ing. Angelo Farina ha applicato con successo tale sviluppo anche all'ambito dell'acustica musicale: servendosi di una tecnica di misurazione facilmente realizzabile e del modello fornito dalla serie di Volterra Diagonale, il metodo permette di caratterizzare un dispositivo audio non lineare mediante le risposte all'impulso non lineari che il dispositivo fornisce a fronte di un opportuno segnale di test (denominato Exponential Sine Sweep). Le risposte all'impulso del dispositivo vengono utilizzate per ricavare i kernel di Volterra della serie. L'utilizzo di tale metodo ha permesso all'Università di Bologna di ottenere un brevetto per un software che virtualizzasse in post-processing le non linearità di un sistema audio. In questa tesi si è ripreso il lavoro che ha portato al conseguimento del brevetto, apportandovi due innovazioni: si è modificata la scelta del segnale utilizzato per testare il dispositivo (si è fatto uso del Synchronized Sine Sweep, in luogo dell'Exponential Sine Sweep); si è messo in atto un primo tentativo di orientare la virtualizzazione verso l'elaborazione in real-time, implementando un procedimento (in post-processing) di creazione dei kernel in dipendenza dal volume dato in input al dispositivo non lineare.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Al fine di migliorare le tecniche di coltura cellulare in vitro, sistemi a bioreattore sono sempre maggiormente utilizzati, e.g. ingegnerizzazione del tessuto osseo. Spinner Flasks, bioreattori rotanti e sistemi a perfusione di flusso sono oggi utilizzati e ogni sistema ha vantaggi e svantaggi. Questo lavoro descrive lo sviluppo di un semplice bioreattore a perfusione ed i risultati della metodologia di valutazione impiegata, basata su analisi μCT a raggi-X e tecniche di modellizzazione 3D. Un semplice bioreattore con generatore di flusso ad elica è stato progettato e costruito con l'obiettivo di migliorare la differenziazione di cellule staminali mesenchimali, provenienti da embrioni umani (HES-MP); le cellule sono state seminate su scaffold porosi di titanio che garantiscono una migliore adesione della matrice mineralizzata. Attraverso un microcontrollore e un'interfaccia grafica, il bioreattore genera tre tipi di flusso: in avanti (senso orario), indietro (senso antiorario) e una modalità a impulsi (avanti e indietro). Un semplice modello è stato realizzato per stimare la pressione generata dal flusso negli scaffolds (3•10-2 Pa). Sono stati comparati tre scaffolds in coltura statica e tre all’interno del bioreattore. Questi sono stati incubati per 21 giorni, fissati in paraformaldehyde (4% w/v) e sono stati soggetti ad acquisizione attraverso μCT a raggi-X. Le immagini ottenute sono state poi elaborate mediante un software di imaging 3D; è stato effettuato un sezionamento “virtuale” degli scaffolds, al fine di ottenere la distribuzione del gradiente dei valori di grigio di campioni estratti dalla superficie e dall’interno di essi. Tale distribuzione serve per distinguere le varie componenti presenti nelle immagini; in questo caso gli scaffolds dall’ipotetica matrice cellulare. I risultati mostrano che sia sulla superficie che internamente agli scaffolds, mantenuti nel bioreattore, è presente una maggiore densità dei gradienti dei valori di grigio ciò suggerisce un migliore deposito della matrice mineralizzata. Gli insegnamenti provenienti dalla realizzazione di questo bioreattore saranno utilizzati per progettare una nuova versione che renderà possibile l’analisi di più di 20 scaffolds contemporaneamente, permettendo un’ulteriore analisi della qualità della differenziazione usando metodologie molecolari ed istochimiche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I sistemi di intelligenza artificiale vengono spesso messi a confronto con gli aspetti biologici riguardanti il cervello umano. L’interesse per la modularità è in continua crescita, che sta portando a risultati davvero interessanti attraverso l’utilizzo di sistemi artificiali intelligenti, come le reti neuronali. Molte reti, sia biologiche sia artificiali sono organizzate in moduli, i quali rappresentano cluster densi di parti interconnesse fra loro all’interno di una rete complessa. Nel campo dell’ingegneria, si usano design modulari per spiegare come una macchina è costituita da parti separate. Lo studio della struttura e delle funzioni di organismi/processi complessi si basa implicitamente su un principio di organizzazione modulare, vale a dire si dà per acquisito il fatto che siano modulari, cioè composti da parti con forma e/o funzioni diverse. Questo elaborato si propone di esporre gli aspetti fondamentali riguardanti la modularità di reti neuronali, le sue origini evolutive, le condizioni necessarie o sufficienti che favoriscono l’emergere dei moduli e relativi vantaggi. Il primo capitolo fornisce alcune conoscenze di base che permettono di leggere gli esperimenti delle parti successive con consapevolezza teorica più profonda. Si descrivono reti neuronali artificiali come sistemi intelligenti ispirati alla struttura di reti neurali biologiche, soffermandosi in particolare sulla rete feed-forward, sull’algoritmo di backpropagation e su modelli di reti neurali modulari. Il secondo capitolo offre una visione delle origini evolutive della modularità e dei meccanismi evolutivi riguardanti sistemi biologici, una classificazione dei vati tipi di modularità, esplorando il concetto di modularità nell’ambito della psicologia cognitiva. Si analizzano i campi disciplinari a cui questa ricerca di modularità può portare vantaggi. Dal terzo capitolo che inizia a costituire il corpo centrale dell’elaborato, si dà importanza alla modularità nei sistemi computazionali, illustrando alcuni casi di studio e relativi metodi presenti in letteratura e fornendo anche una misura quantitativa della modularità. Si esaminano le varie possibilità di evoluzione della modularità: spontanea, da specializzazione, duplicazione, task-dependent, ecc. passando a emulare l’evoluzione di sistemi neurali modulari con applicazione al noto modello “What-Where” e a vari modelli con caratteristiche diverse. Si elencano i vantaggi che la modularità produce, soffermandosi sull’algoritmo di apprendimento, sugli ambienti che favoriscono l’evoluzione della modularità con una serie di confronti fra i vari tipi, statici e dinamici. In ultimo, come il vantaggio di avere connessioni corte possa portare a sviluppare modularità. L’obiettivo comune è l’emergere della modularità in sistemi neuronali artificiali, che sono usati per applicazioni in numerosi ambiti tecnologici.