851 resultados para autenticazione protocolli crittografia simulink implementazione stateflow


Relevância:

10.00% 10.00%

Publicador:

Resumo:

I sistemi mobili rappresentano una classe di sistemi distribuiti caratterizzata dalla presenza di dispositivi portatili eterogenei quali PDA, laptop e telefoni cellulari che interagiscono tra loro mediante una rete di interconnessione wireless. Una classe di sistemi mobili di particolare interesse è costituita dai sistemi basati sul modello di interazione publish/subscribe. Secondo tale schema, i nodi all'interno di una rete possono assumere due ruoli differenti: i produttori di informazione, chiamati publisher, ed i consumatori di informazione, chiamati subscriber. Tipicamente, l'interazione tra essi è mediata da un gestore di eventi che indirizza correttamente le informazioni ricevute dai publisher verso i subscriber interessati, sulla base degli interessi espressi da questi ultimi tramite sottoscrizioni. Nella progettazione di sistemi mobili, a differenza di quelli tradizionali basati su nodi fissi, bisogna tenere conto di problemi quali la scarsa capacità computazionale dei dispositivi e la limitata larghezza di banda delle reti wireless. All'interno di tale ambito, stanno recentemente assumendo sempre maggiore importanza i sistemi context-aware, ovvero sistemi mobili che sfruttano i dati provenienti dall'ambiente circostante e dai dispositivi stessi per adattare il proprio comportamento e notificare agli utenti la presenza di informazioni potenzialmente utili. Nello studio di questi sistemi, si è notato che i nodi che si trovano nella stessa area geografica generano tipicamente delle sottoscrizioni che presentano tra loro un certo grado di similarità e coperture parziali o totali. Il gruppo di ricerca del DEIS dell’Università di Bologna ha sviluppato un'infrastruttura di supporto per sistemi mobili context-aware, chiamata SALES. Attualmente il sistema progettato non considera le similarità delle sottoscrizioni e quindi non sfrutta opportunamente tale informazione. In questo contesto si rende necessario l'adozione di opportune tecniche di aggregazione delle sottoscrizioni atte ad alleggerire la computazione dei nodi mobili e le comunicazioni tra loro. Il lavoro presentato in questa tesi sarà finalizzato alla ricerca, all'adattamento ed all'implementazione di una tecnica di aggregazione delle sottoscrizioni. Tale tecnica avrà lo scopo di rilevare e sfruttare le similarità delle sottoscrizioni ricevute dal sistema al fine di ridurne il numero; in questo modo, quando un nodo riceverà un dato, il processo di confronto tra l'insieme delle sottoscrizioni memorizzate e il dato ricevuto sarà più leggero, consentendo un risparmio di risorse computazionali. Inoltre, adattando tali tecniche, sarà possibile modulare anche il traffico dati scaturito dalle risposte alle sottoscrizioni. La struttura di questa tesi prevede un primo capitolo sui sistemi context-aware, descrivendone le principali caratteristiche e mettendo in luce le problematiche ad essi associate. Il secondo capitolo illustra il modello di comunicazione Publish/Subscribe, modello di riferimento per i moderni sistemi context-aware e per i sistemi mobili in generale. Il terzo capitolo descrive l'infrastruttura SALES sulla quale si è progettata, implementata e testata la soluzione proposta in questa tesi. Il quarto capitolo presenta le principali tecniche di aggregazione delle sottoscrizioni e spiega come possono essere adattate al contesto di questa tesi. Il quinto capitolo effettua l'analisi dei requisiti per comprendere meglio il comportamento della soluzione; seguono la progettazione e l’implementazione della soluzione su SALES. Infine, il sesto capitolo riporta in dettaglio i risultati ottenuti da alcuni degli esperimenti effettuati e vengono messi a confronto con quelli rilevati dal sistema di partenza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa Tesi di Laurea viene presentata un’interessante esperienza di implementazione numerica: lo sviluppo di un codice agli elementi finiti in grado di calcolare, verificare e ottimizzare edifici industriali in acciaio. Al giorno d’oggi, la tendenza delle imprese nel campo dell’ingegneria strutturale ed in particolare nel campo dell’edilizia industriale, è quella della specializzazione. E’ sempre più frequente, ad esempio nel campo dei capannoni industriali, che le aziende concentrino la loro attività solo su determinate tipologie costruttive, sulle quali ottimizzano il lavoro riducendo al massimo i tempi di progettazione, di costruzione e abbassando il prezzo. Il mondo dei programmi di calcolo, per la maggior parte, sembra aver preso una direzione di sviluppo opposta. Le case di produzione software mettono a disposizione dei progettisti strumenti sempre più raffinati, capaci di modellare dettagliatamente qualsiasi tipo di struttura, materiale, azione statica o dinamica; spesso questi programmi contengono anche un codice integrato CAD per il disegno della struttura e altri tools per lasciare all’utente la più grande libertà di azione possibile. Se da un lato questi strumenti danno al progettista la possibilità di una modellazione sempre più dettagliata, dall’altra parte hanno il limite di essere poco pratici per un tipo di progettazione standardizzato. Spesso quello di cui le imprese hanno bisogno è invece un programma creato ‘ad hoc’ per le loro attività che, grazie all’inserimento di pochi parametri, possa garantire una progettazione rapida e magari gestire non solo la fase di calcolo, ma anche quella di verifica e di ottimizzazione. In quest’ottica si inserisce lo sviluppo del codice eseguito in questa tesi. L’esposizione si articola in quattro parti. La prima, introduttiva, è dedicata alla descrizione delle tipologie di edifici monopiano in acciaio maggiormente diffuse, dei diversi tipi materiale, dei principali aspetti della normativa per queste costruzioni. Viene inoltre descritta la tipologia costruttiva implementata nel codice sviluppato. Il secondo capitolo è dedicato alla descrizione del metodo agli elementi finiti, esponendone i fondamenti teorici e le principali fasi della costruzione di un codice di calcolo numerico per elementi monodimensionali. Nella terza parte è illustrato il codice sviluppato. In particolare vengono dettagliatamente descritti i moduli di generazione del modello, del solutore, del post-processore in grado di eseguire le verifiche secondo le normative vigenti, e quello dedicato all’ottimizzazione strutturale. In fine, nell’ultimo capitolo viene illustrato un esempio progettuale con il quale si è potuta effettuare la validazione del codice confrontando i risultati ottenuti con quelli di riferimento forniti da programmi attualmente in commercio. La presente dissertazione non mira alla “certificazione” di un software che sia in grado di fare calcoli complessi nell’ambito dell’ingegneria strutturale, ma lo scopo è piuttosto quello di affrontare le problematiche e gestire le scelte operative che riguardano la scrittura di un codice di calcolo. Programmatori non si nasce, ma si diventa attraverso anni di esperienza che permettono di acquisire quella sensibilità numerica che è definibile come una vera e propria “arte”. Ed è in questa direzione che si è svolta la Tesi, ovvero comprendere prima di tutto l’atteggiamento da assumere nei confronti di un elaboratore elettronico e, solo successivamente, passare ad un utilizzo consapevole per scopi progettuali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Italia, il processo di de-istituzionalizzazione e di implementazione di modelli di assistenza per la salute mentale sono caratterizzati da carenza di valutazione. In particolare, non sono state intraprese iniziative per monitorare le attività relative all’assistenza dei pazienti con disturbi psichiatrici. Pertanto, l’obiettivo della tesi è effettuare una valutazione comparativa dei percorsi di cura nell’ambito della salute mentale nei Dipartimenti di Salute Mentale e Dipendenze Patologiche della regione Emilia-Romagna utilizzando indicatori ottenuti dai flussi amministrativi correnti.. I dati necessari alla costruzione degli indicatori sono stati ottenuti attraverso un data linkage dei flussi amministrativi correnti regionali delle schede di dimissione ospedaliera, delle attività territoriali dei Centri di Salute Mentale e delle prescrizioni farmaceutiche, con riferimento all’anno 2010. Gli indicatori sono stati predisposti per tutti i pazienti con diagnosi principale psichiatrica e poi suddivisi per categoria diagnostica in base al ICD9-CM. . Il set di indicatori esaminato comprende i tassi di prevalenza trattata e di incidenza dei disturbi mentali, i tassi di ospedalizzazione, la ri-ospedalizzazione a 7 e 30 giorni dalla dimissione dai reparti psichiatrici, la continuità assistenziale ospedale-territorio, l’adesione ai trattamenti ed il consumo e appropriatezza prescrittiva di farmaci. Sono state rilevate alcune problematiche nella ricostruzione della continuità assistenziale ospedale-territorio ed alcuni limiti degli indicatori relativi alle prescrizioni dei farmaci. Il calcolo degli indicatori basato sui flussi amministrativi correnti si presenta fattibile, pur con i limiti legati alla qualità, completezza ed accuratezza dei dati presenti. L’implementazione di questi indicatori su larga scala (regionale e nazionale) e su base regolare può essere una opportunità per impostare un sistema di sorveglianza, monitoraggio e valutazione dell’assistenza psichiatrica nei DSM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduzione ai concetti fondamentali che stanno alla base del filtraggio multi-target e alle diverse problematiche connesse, con particolare riguardo alle applicazioni di tracking, cioè di inseguimento del target. In seguito valutazione di un possibile approccio alla realizzazione di un filtro di questo tipo e alla sua implementazione su un calcolatore. Nella seconda parte della tesi sono illustrati i risultati sperimentali che si ottengono dall’implementazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo della tesi consiste nell’osservazione di un’immagine ecografica e nella sua analisi tramite vari metodi di segmentazione. Il fine di questo approfondimento è di rendere chiari e misurabili alcuni elementi significativi della figura presa in considerazione. Sono analizzati e implementati alcuni metodi per la segmentazione di un’immagine e applicati ad alcune immagini campione con caratteristiche diverse. Dai risultati ottenuti da questi test sono scelti i metodi più efficaci ed applicati all’ecografia. Il lavoro è svolto nel modo seguente: nel primo capitolo si tratta dei vari metodi di filtrazione di un’immagine e di segmentazione, nel secondo capitolo l’elaborazione delle immagini tramite implementazione dei vari metodi. Il primo capitolo è più teorico, affronta il problema da un punto di vista generale ed è suddiviso in sei sottocapitoli. Nella prima sezione si definisce un’immagine digitale e le nozioni fondamentali di lettura di un’immagine con MATLAB. La seconda e la terza sezione trattano nello specifico i filtri che vengono utilizzati per migliorare un’immagine prima di accedere alla segmentazione definitiva. Nelle ultime tre sezioni vengono studiati alcuni metodi di segmentazione più importanti e di facile implementazione. Il secondo capitolo mette a confronto i vari filtri e i metodi di segmentazione su ‘immagini campione’; infine la parte più interessante e applicativa è la sezione 2.4 in cui viene segmentata l’immagine ecografica che si intende analizzare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato riguarda uno specifico attacco all'RSA tramite teoremi sui reticoli elaborato da Coppersmith. Dopo una breve introduzione sulla crittografia simmetrica e asimettrica, cioè a chiave pubblica, vengono definiti i reticoli, basi di reticoli, basi ridotte, l'algoritmo LLL. In seguito viene mostrato come applicare quest'ultimo algoritmo nella risoluzione di equazioni modulari ad una variabili e le sue applicazioni come attacco all'RSA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi abbiamo presentato i risultati sperimentali di nanoindentazione su pentacene in transistor organici a film sottile (OTFT) sottoposti ad irraggiamento ionico. Nella prima parte si ripercorre lo sviluppo della tecnica di indentazione strumentata, con una focalizzazione particolare sui modelli matematici proposti per l'interpretazione dei dati forza-spostamento ricavati da queste misure. In particolare, viene diffusamente esposta l'implementazione della tecnica di analisi proposta da Oliver e Pharr, che è utilizzata in questa tesi. Il secondo capitolo espone le caratteristiche generali (strutturali ed elettriche) degli OTFT. Un paragrafo è dedicato al pentacene, che rappresenta lo strato attivo dei transistor organici su cui sono state effettuate le misure in laboratorio. L'ultima parte del capitolo consiste in una panoramica dell'interazione tra radiazioni e polimeri. Vengono quindi presentati i risultati sperimentali: si confrontano le proprietà di durezza e modulo di Young per campioni caratterizzati da differenti specie ioniche, dosi ed energie di irraggiamento (unitamente a campioni reference, per permettere un confronto con il pentacene sottoposto a bombardamento).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modellizzazione della macchina asincrona esafase asimmetrica mediante i vettori di spazio trifase. Determinazione delle trasformazioni esafase dallo studio del campo magnetico rotante. Modellizzazione della macchina asincrona esafase asimmetrica mediante i vettori di spazio esafase. Studio dell’inverter esafase e delle relative tecniche di modulazione. Definizione del modello Simulink dell’azionamento. Studio del ripple della corrente di carico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto durante questa tesi di dottorato pone le basi per lo sviluppo di nuove biotecnologie della micorrizazione di piante forestali con tartufi pregiati ed in particolare con Tuber magnatum. Durante questa tesi è stato possibile isolare e mantenere in coltura pura il micelio di T. magnatum, ad ottenere e descrivere le sue micorrize e quelle di altri tartufi “bianchi” (T. oligospermum, T. borchii) e a seguire l’evoluzione del micelio nel suolo utilizzando la tecnica della real time PCR. Sono stati disegnati primer specie specifici in grado di identificare T. oligospermum ed è stata verificata la possibiltà di utilizzare questi primers in PCR multiplex con quelli specifici di T. magnatum e di T. borchii già presenti in bibliografia, al fine di “scovare” sia frodi nella commercializzaione degli ascomi sia eventuali contaminazioni nelle piante micorrizate. Per migliorare lo sviluppo miceliare di tartufo abbiamo si è cercato di migliorare il mezzo nutritivo per la crescita del micelio utilizzando: fonti di carbonio diverse, estratti radicali di nocciolo e singole frazioni separate dagli stessi. Infine sono stati sviluppati protocolli di crioconservazione per miceli di tartufo. Gli estratti radicali sono in grado di stimolare le crescita miceliare del tartufo modello T. borchii e dimodificarne la morfologia ifale. Questo risultati sono stati confermati anche dall’aumento dell’espressione di geni CDC42 e Rho-GDI, due geni legati alla crescita apicale polarizzata delle ife dei funghi filamentosi. Inoltre è stato dimostrato che il mantenimento in coltura per numerosi anni dei miceli di tartufo provoca una perdita della capacità d’infettare le radici delle piante e quindi il loro potenziale utilizzo sia a scopo sperimentale sia a scopo colturale. Questo pone in risalto l’importanza della conservazione a lungo termine del materiale biologico a disposizione ed è stato dimostrato che la crioconservazione è applicabile con successo anche alle specie del genere Tuber.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo studio, che è stato realizzato in collaborazione con Hera, è un'analisi della gestione dei rifiuti a Bologna. La ricerca è stata effettuata su diversi livelli: un livello strategico il cui scopo è quello di identificare nuovi metodi per la raccolta dei rifiuti in funzione delle caratteristiche del territorio della città, un livello analitico che riguarda il miglioramento delle applicazioni informatiche di supporto, e livello ambientale che riguarda il calcolo delle emissioni in atmosfera di veicoli adibiti alla raccolta e al trasporto dei rifiuti. innanzitutto è stato necessario studiare Bologna e lo stato attuale dei servizi di raccolta dei rifiuti. È incrociando questi componenti che in questi ultimi tre anni sono state effettuate modifiche nel settore della gestione dei rifiuti. I capitoli seguenti sono inerenti le applicazioni informatiche a sostegno di tali attività: Siget e Optit. Siget è il programma di gestione del servizio, che attualmente viene utilizzato per tutte le attività connesse alla raccolta di rifiuti. È un programma costituito da moduli diversi, ma di sola la gestione dati. la sperimentazione con Optit ha aggiunto alla gestione dei dati la possibilità di avere tali dati in cartografia e di associare un algoritmo di routing. I dati archiviati in Siget hanno rappresentato il punto di partenza, l'input, e il raggiungimento di tutti punti raccolta l'obiettivo finale. L'ultimo capitolo è relativo allo studio dell'impatto ambientale di questi percorsi di raccolta dei rifiuti. Tale analisi, basata sulla valutazione empirica e sull'implementazione in Excel delle formule del Corinair mostra la fotografia del servizio nel 2010. Su questo aspetto Optit ha fornito il suo valore aggiunto, implementando nell'algoritmo anche le formule per il calcolo delle emissioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi sono stati confrontati diversi protocolli per la purificazione della proteina CRM197 mediante cromatografia di affinità a cationi divalenti. Il CRM197 è una variante della tossina difterica caratterizzata da stessa massa molecolare e struttura. A causa di un’unica mutazione (G52E), tale variante è atossica e presenta numerose applicazioni in campo farmaceutico (in particolare nella preparazione di vaccini coniugati). Fino ad ora, per la produzione del CRM197 è stato utilizzato il ceppo originale di derivazione, cioè Corynebacterium diphteriae, e la produzione eterologa nel batterio Escherichia coli ha mostrato notevoli difficoltà. In particolare, mentre è stato possibile definire un valido protocollo di sovraespressione e di estrazione proteica, le fasi successive di purificazione e di refolding (rinaturazione) sono ancora problematiche e causano basse rese finali, ostacolando le prospettive di scale-up su scala industriale. Il CRM197, infatti, per le sue caratteristiche strutturali, come l’elevata percentuale di amminoacidi idrofobici e la presenza di foglietti β esposti al solvente, è suscettibile alla formazione di aggregati insolubili che impone, lungo tutto il processo, il controllo delle interazioni idrofobiche (con agenti denaturanti e/o detergenti). In un precedente lavoro di tesi, è stato sviluppato un protocollo valido per ottenere un’elevata espressione proteica intracellulare. Il primo passaggio di purificazione prevede una cromatografia di affinità su colonna che viene sfruttata anche per eseguire il refolding proteico. Tuttavia, durante la messa a punto di tale processo, sono stati osservati evidenti fenomeni di aggregazione della proteina, oltre all’instaurarsi di legami aspecifici proteina-proteina o proteina-resina cromatografica. In questo lavoro di tesi sono state affrontate alcune problematiche legate a tale passaggio di purificazione per cercare di individuare le condizioni ottimali per ottenere il CRM197 in forma nativa e biologicamente attiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Descrizione del controllo diretto di coppia e flusso per macchina asincrona pentafase e definizione dei modelli Simulink DTC1 eDTC2, con relative simulazioni di una prova a regime ed una prova in transitorio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Over the last 60 years, computers and software have favoured incredible advancements in every field. Nowadays, however, these systems are so complicated that it is difficult – if not challenging – to understand whether they meet some requirement or are able to show some desired behaviour or property. This dissertation introduces a Just-In-Time (JIT) a posteriori approach to perform the conformance check to identify any deviation from the desired behaviour as soon as possible, and possibly apply some corrections. The declarative framework that implements our approach – entirely developed on the promising open source forward-chaining Production Rule System (PRS) named Drools – consists of three components: 1. a monitoring module based on a novel, efficient implementation of Event Calculus (EC), 2. a general purpose hybrid reasoning module (the first of its genre) merging temporal, semantic, fuzzy and rule-based reasoning, 3. a logic formalism based on the concept of expectations introducing Event-Condition-Expectation rules (ECE-rules) to assess the global conformance of a system. The framework is also accompanied by an optional module that provides Probabilistic Inductive Logic Programming (PILP). By shifting the conformance check from after execution to just in time, this approach combines the advantages of many a posteriori and a priori methods proposed in literature. Quite remarkably, if the corrective actions are explicitly given, the reactive nature of this methodology allows to reconcile any deviations from the desired behaviour as soon as it is detected. In conclusion, the proposed methodology brings some advancements to solve the problem of the conformance checking, helping to fill the gap between humans and the increasingly complex technology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La neuroriabilitazione è un processo attraverso cui individui affetti da patologie neurologiche mirano al conseguimento di un recupero completo o alla realizzazione del loro potenziale ottimale benessere fisico, mentale e sociale. Elementi essenziali per una riabilitazione efficace sono: una valutazione clinica da parte di un team multidisciplinare, un programma riabilitativo mirato e la valutazione dei risultati conseguiti mediante misure scientifiche e clinicamente appropriate. Obiettivo principale di questa tesi è stato sviluppare metodi e strumenti quantitativi per il trattamento e la valutazione motoria di pazienti neurologici. I trattamenti riabilitativi convenzionali richiedono a pazienti neurologici l’esecuzione di esercizi ripetitivi, diminuendo la loro motivazione. La realtà virtuale e i feedback sono in grado di coinvolgerli nel trattamento, permettendo ripetibilità e standardizzazione dei protocolli. È stato sviluppato e valutato uno strumento basato su feedback aumentati per il controllo del tronco. Inoltre, la realtà virtuale permette l’individualizzare il trattamento in base alle esigenze del paziente. Un’applicazione virtuale per la riabilitazione del cammino è stata sviluppata e testata durante un training su pazienti di sclerosi multipla, valutandone fattibilità e accettazione e dimostrando l'efficacia del trattamento. La valutazione quantitativa delle capacità motorie dei pazienti viene effettuata utilizzando sistemi di motion capture. Essendo il loro uso nella pratica clinica limitato, una metodologia per valutare l’oscillazione delle braccia in soggetti parkinsoniani basata su sensori inerziali è stata proposta. Questi sono piccoli, accurati e flessibili ma accumulano errori durante lunghe misurazioni. È stato affrontato questo problema e i risultati suggeriscono che, se il sensore è sul piede e le accelerazioni sono integrate iniziando dalla fase di mid stance, l’errore e le sue conseguenze nella determinazione dei parametri spaziali sono contenuti. Infine, è stata presentata una validazione del Kinect per il tracking del cammino in ambiente virtuale. Risultati preliminari consentono di definire il campo di utilizzo del sensore in riabilitazione.