960 resultados para galassie,formazione,modelli,merging,collasso monolitico
Resumo:
Negli ultimi decenni il concetto di variabile latente ha riscosso un enorme successo nelle discipline statistiche come attestano i numerosi lavori scientifici presenti in letteratura. In particolare, nelle scienze sociali e in psicometria, l’uso del concetto di variabile latente è stato largamente adottato per far fronte al problema di misurare quantità che, in natura, non possono essere direttamente osservate. La vasta letteratura riguardante questa metodologia si espande, in maniera più limitata, anche al campo della ricerca economica ed econometrica. Nonostante esistano studi di modelli a struttura latente applicati a variabili di tipo economico, molto pochi sono i lavori che considerano variabili finanziarie e, finora, praticamente nessun ricercatore ha messo in connessione la teoria standard di portafoglio con la metodologia dei modelli statistici a variabili latenti. L’obiettivo del lavoro è quello di ricorrere alle potenzialità esplicative ed investigative dei metodi statistici a variabili latenti per l’analisi dei fenomeni finanziari. Si fa riferimento, in particolare, ai modelli a classe latente che consentono di sviluppare soluzioni metodologicamente corrette per importanti problemi ancora aperti in campo finanziario. In primo luogo, la natura stessa delle variabili finanziarie è riconducibile al paradigma delle variabili latenti. Infatti, variabili come il rischio ed il rendimento atteso non possono essere misurate direttamente e necessitano di approssimazioni per valutarne l’entità. Tuttavia, trascurare la natura non osservabile delle variabili finanziarie può portare a decisioni di investimento inopportune o, talvolta, addirittura disastrose. Secondariamente, vengono prese in considerazione le capacità dei modelli a classi latenti nel contesto della classificazione. Per i prodotti finanziari, infatti, una corretta classificazione sulla base del profilo (latente) di rischio e rendimento rappresenta il presupposto indispensabile per poter sviluppare efficaci strategie di investimento. Ci si propone, inoltre, di sviluppare un collegamento, finora mancante, tra uno dei principali riferimenti della finanza moderna, la teoria classica del portafoglio di Markowitz, e la metodologia statistica dei modelli a variabili latenti. In questo contesto, si vogliono investigare, in particolare, i benefici che i modelli a variabili latenti possono dare allo studio di ottimizzazione del profilo rischio - rendimento atteso di un portafoglio di attività finanziarie. Lo sviluppo di numeri indici dei prezzi delle attività finanziarie caratterizzati da una solida base metodologica rappresenta un ulteriore aspetto nel quale i modelli a classe latente possono svolgere un ruolo di fondamentale importanza. In particolare, si propone di analizzare il contesto dei numeri indici dei prezzi settoriali, che costituiscono uno dei riferimenti più importanti nelle strategie di diversificazione del rischio. Infine, il passaggio da una specificazione statica ad una analisi dinamica coglie aspetti metodologici di frontiera che possono essere investigati nell’ambito dei modelli markoviani a classi latenti. Il profilo latente di rischio – rendimento può essere, così, investigato in riferimento alle diverse fasi dei mercati finanziari, per le quali le probabilità di transizione consentono valutazioni di tipo previsivo di forte interesse.
Resumo:
Zusammenfassung:Die Quartärstruktur des respiratorischen Proteins Hämocyanin (Isoform HtH1) aus der marinen Schnecke Haliotis tuberculata wurde vermittels Kryoelektronen-mikroskopie und 3D-Rekonstruktion untersucht. Das Molekül ist zylinderförmig, hat einen Durchmesser von ca. 35 nm und besteht aus einer Zylinderwand und einem internen Kragenkomplex. Dieser wiederum besteht aus einem Collar und einem Arc.Die kryoelektronenmikroskopischen Aufnahmen von in glasartigem Eis fixierten HtH1-Molekülen brachte eine enorme Verbesserung der Anzahl der zur Verfügung stehenden Ansichtswinkel gegenüber den negativkontrastierten Molekülen, die auf Karbonfilm präpariert waren.Die 3D-Rekonstruktion des HtH1 mittels Aufnahmen bei drei verschiedenen Defo-kuswerten verbesserte die Auflösung noch einmal deutlich gegenüber den Rekon-struktionen, die aus Aufnahmen bei einem festen Defokuswert gemacht wurden, und zwar auf 12 Å. Das Molekül besitzt eine D5-Symmetrie.Aus dieser bisher genausten Rekonstruktion eines Molluskenhämocyanins aus EM-Bildern ließen sich folgende neue Strukturdetails ableiten:· Ein Untereinheitendimer konnte als Repeating Unit im Dekamer des HtH1 beschrieben werden.· Das Untereinheitendimer konnte aus der 3D-Dichtekarte isoliert werden. Es be-steht eindeutig aus 16 Massen, die funktionellen Domänen entsprechen. Zwei dieser Massen bilden den Collar, zwei den Arc und 12 das Wandsegment.· Die gegenläufige Anordnung der beiden Untereinheiten innerhalb dieses Unte-reinheitendimers konnten bestätigt und auf zwei Möglichkeiten eingeschränkt werden.· Die Zahl der alternativen Anordnungen der 16 funktionellen Domänen (HtH1-a bis HtH1-h) im Untereinheitendimer konnten von 80 auf 2 eingeengt werden.· Es konnte über molekulares Modellieren mithilfe einer publizierten Kristallstruk-tur eine 3D-Struktur fastatomarer Auflösung der funktionellen Domäne HtH1-g berechnet werden.· Die funktionelle Domäne HtH1-g konnte als Domänenpaar plausibel in die 3D?Dichtekarte des Untereinheitendimers eingepasst werden, und zwar in die beiden Massen des Arc.Aus der elektronenmikroskopisch gewonnenen Dichtekarte wurde mit Hilfe des
Resumo:
L'elaborato considera anzitutto la genesi dell'istituto, e con chiarezza analizza il percorso di affioramento della figura del distacco nell'impiego pubblico rimarcando affinità e differenze con ipotesi similari di temporanea dissociazione tra datore di lavoro e fruitore della prestazione. Nell'operare gli opportuni distinguo, il dott. Tortini si confronta con la fattispecie tipica del lavoro subordinato e con il divieto di dissociazione che ad essa sarebbe sotteso, anche alla luce della legge 1369 del 1960 sul divieto di interposizione. Gli elementi caratterizzanti il distacco sono poi esposti analizzando con acutezza i più rilevanti orientamenti emersi nella giurisprudenza di merito e di legittimità , in specie con riguardo alla prassi invalsa nei gruppi di società di dirigere la prestazione di lavoro a favore di società collegate o controllate dalla società datrice di lavoro. In tal senso l'elaborato prende posizione in ordine alla necessaria temporaneità dell'interesse del distaccante, nonchè all'inclusione del distacco nell'ambito del potere direttivo-organizzativo del datore di lavoro, ciò che esclude la necessità del consenso del lavoratore distaccato. Nel secondo capitolo il dott. Tortini si confronta con il quadro delle libertà fondamentali del diritto comunitario, ed in particolare con la libera prestazione di servizi, analizzando profili essenziali quali la natura autonoma, la transnazionalità e la temporaneità del servizio prestato. Con ampi riferimenti alla dottrina, anche comparata, in argomento, il capitolo delinea le possibili forme di interazione tra gli ordinamenti nazionali all'interno dell'Unione europea ed individua, in alternativa, tre modelli di coordinamento tra le esigenze liberalizzanti tipiche del mercato unico e le prerogative nazionali di tipo protezionistico che si manifestano qualora un servizio venga prestato in uno Stato membro diverso da quello in cui ha sede il prestatore: host state control, home state control e controllo sovranazionale. L'analisi si rivela essenziale al fine di delineare le ragioni della più recente giurisprudenza della Corte di giustizia in tema di appalti cross-border e libera circolazione dei lavoratori, e dimostra un sostanziale "slittamento" della base giuridica mediante la quale il diritto comunitario regola il fenomeno della prestazione di lavoro transnazionale, dall'art. 39 all'art. 49 TCE. Il terzo capitolo confronta l'impianto teorico ricavabile dai principi del Trattato con la Direttiva 96/71 sul distacco ed i relativi provvedimenti attuativi (d.lgs. n. 72/2000 e art. 30, d.lgs. n. 276/2003). In particolare, vengono analizzate le ipotesi limitrofe alla nozione di distacco ricavabile dal diritto comunitario, accomunate dalla dissociazione tra datore di lavoro ed utilizzatore della prestazione, ma distinguibili in base alla natura del rapporto contrattuale tra impresa distaccante ed impresa distaccataria. La funzione principale della Direttiva comunitaria in argomento viene individuata dal dott. Tortini nella predisposizione di una base inderogabile di diritti che devono essere, in ogni caso, assicurati al lavoratore oggetto del distacco. Questa base, denominata hard core della tutela, deve essere garantita, all'interno del singolo Stato membro, dalla contrattazione collettiva. Nell'ordinamento italiano, la disciplina del distacco contenuta nella Direttiva viene attuata con il d.lgs. n. 72/2000 che, come opportunamente segnalato dal dott. Tortini, contiene una serie di incongruenze e di lacune. Fra tutte, si rimarca come la stessa Commissione abbia rilevato uno scostamento tra le due discipline, dato che la legge italiana estende surrettiziamente ai lavoratori distaccati tutte le disposizioni legislative e/o i contratti collettivi che disciplinano le condizioni di lavoro, operazione non consentita dal la Direttiva 76/91. E' in specie il riferimento al contratto collettivo stipulato dalle organizzazioni comparativamente più rappresentative ad essere criticato dall'elaborato, in quanto finisce con il trasformare l'art. 3.1 del D. Lgs. 72/2000 in una discriminazione fondata sulla nazionalità e rischia di creare maggiori difficoltà e più oneri per gli imprenditori stranieri che intendano erogare servizi sul territorio nazionale. A conclusione della tesi, il dott. Tortini esamina la nozione di distacco introdotta ad opera dell'art. 30, d.lgs. n. 276/2003, ed enuclea gli elementi caratterizzanti dell'istituto, individuati nell'interesse del distaccante e nella temporaneità dell'assegnazione, definita «l'in sè» dell'interesse stesso.
Resumo:
The field of research of this dissertation concerns the bioengineering of exercise, in particular the relationship between biomechanical and metabolic knowledge. This relationship can allow to evaluate exercise in many different circumstances: optimizing athlete performance, understanding and helping compensation in prosthetic patients and prescribing exercise with high caloric consumption and minimal joint loading to obese subjects. Furthermore, it can have technical application in fitness and rehabilitation machine design, predicting energy consumption and joint loads for the subjects who will use the machine. The aim of this dissertation was to further understand how mechanical work and metabolic energy cost are related during movement using interpretative models. Musculoskeletal models, when including muscle energy expenditure description, can be useful to address this issue, allowing to evaluate human movement in terms of both mechanical and metabolic energy expenditure. A whole body muscle-skeletal model that could describe both biomechanical and metabolic aspects during movement was identified in literature and then was applied and validated using an EMG-driven approach. The advantage of using EMG driven approach was to avoid the use of arbitrary defined optimization functions to solve the indeterminate problem of muscle activations. A sensitivity analysis was conducted in order to know how much changes in model parameters could affect model outputs: the results showed that changing parameters in between physiological ranges did not influence model outputs largely. In order to evaluate its predicting capacity, the musculoskeletal model was applied to experimental data: first the model was applied in a simple exercise (unilateral leg press exercise) and then in a more complete exercise (elliptical exercise). In these studies, energy consumption predicted by the model resulted to be close to energy consumption estimated by indirect calorimetry for different intensity levels at low frequencies of movement. The use of muscle skeletal models for predicting energy consumption resulted to be promising and the use of EMG driven approach permitted to avoid the introduction of optimization functions. Even though many aspects of this approach have still to be investigated and these results are preliminary, the conclusions of this dissertation suggest that musculoskeletal modelling can be a useful tool for addressing issues about efficiency of movement in healthy and pathologic subjects.
Resumo:
Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.
Resumo:
Obiettivo del presente lavoro è approntare un’analisi interpretativa dell’operatività dalle Finanziarie regionali, valutarne gli investimenti in capitale di rischio e, in particolare, l’attività di private equity, evidenziando le tendenze in atto, i possibili percorsi evolutivi e le eventuali criticità. La metodologia adottata ha previsto un’articolazione del lavoro lungo due principali direttive: un’analisi di tipo quantitativo sui bilanci di sette esercizi (dal 2002 al 2008), con la finalità di indagare nel dettaglio gli aspetti economici, finanziari e patrimoniali delle Finanziarie regionali attive sul territorio italiano; un’analisi qualitativa basata su un’approfondita rassegna della letteratura internazionale e su interviste mirate ad un campione ampiamente rappresentativo della popolazione osservata. I risultati raggiunti fanno ragionevolmente supporre che sia in atto una profonda ristrutturazione dell’intero sistema delle Finanziarie, che ha visto innanzitutto aumentare il controllo pubblico nella compagine sociale. L’indagine contabile ha permesso di identificare la presenza di due modelli di business ben differenziati: alcune Finanziarie sono orientate ad attività con forte contenuto di intermediazione finanziaria; altre invece sono focalizzate sull’attività di erogazione di servizi sia finanziari di consulenza che reali. L’investimento in capitale di rischio costituisce un attività centrale per le Finanziarie regionali; l’analisi dedicata a tali impieghi ha permesso di individuare, tra esse, alcune realtà tipiche del merchant banking, e più di frequente, del modello di holding. Complessivamente le Finanziarie campionate detengono oltre 400 partecipazioni per un valore che supera 1,7 miliardi di euro; prevalentemente concentrati su una ristretta cerchia di realtà spesso con impatto strategico sul territorio, ovvero strumentali. Segnatamente all’attività di private equity, è stato possibile rilevare come la politica d’investimento delle Finanziarie regionali sia complementare rispetto a quella mediamente espressa dal mercato domestico, anche se restano critici, anche per le Finanziarie, gli investimenti su imprese target con fatturato compreso tra 2 e 10 milioni di euro. Le evidenze circa la struttura dei contratti segnalano una parziale conformità alla best practice individuata dalla letteratura internazionale. In particolare l’uso limitato dello stage financing, la bassa partecipazione alla gestione sono le principali criticità individuate. Infine, della fase di riorganizzazione che pare interessare il sistema delle Finanziarie, si trova conferma nella percezione dei suoi operatori. Interpellati sul futuro dell’attività di investimento in capitale di rischio, hanno fornito indicazioni che consentono di concludere l’esistenza di una polarizzazione delle Finanziarie su due gruppi: da un lato quelle che implementeranno, più o meno, l’attività di private equity, dall’altro quelle che, viceversa, abbandoneranno tale strumento. La normativa sulle società a partecipazione pubblica regionale e la scarsa autonomia nella gestione delle misure affidate sono ritenute, dalle Finanziarie “interessate”, il principale fattore di freno alla loro crescita nel mercato del private equity.
Resumo:
Le particolari caratteristiche dei sistemi democratici multipartitici producono forti incentivi al coordinamento tra i partiti politici, che li inducono ad accordarsi per la formazione di coalizioni in due momenti politici cruciali: la competizione elettorale e la formazione dei governi. La tesi è volta a un'analisi della formazione di coalizioni pre-elettorali e degli effetti da esse prodotti sulle dinamiche di voto e sulla struttura dei governi. Si tratta di un ambito di ricerca di recente formazione, che è fondato sulla letteratura della scelta razionale. Il lavoro, diviso in due parti, vede in primo luogo un'analisi comparata relativa alla formazione delle coalizioni in 20 Stati democratici, seguita da uno studio di caso sugli effetti prodotti dalla formazione di patti elettorali in Italia.
Resumo:
I copolimeri derivanti da acido lattico, hanno attirato una grande attenzione, negli ultimi decenni, per le loro caratteristiche di biodegradabilità e biocompatibilità e per questo sono stati ampiamente studiati i loro metodi di sintesi e le loro proprietà. Il lavoro presentato parte dalla sintesi dei due monomeri trimetilene carbonato (TMC) e p-diossanone (PDO) da utilizzare poi nella formazione di copolimeri a blocchi con il lattide commerciale racemo e levogiro. Tali copolimeri dovrebbero presentare la proprietà di memoria di forma. Nell’elaborato sono presentate le diverse tecniche di polimerizzazione sperimentate per ognuno dei copolimeri sintetizzati: la prima parte riguarderà i copolimeri TMC-lattide, inizialmente con lattide racemo (DL-lattide) e poi, trovato un metodo di sintesi appropriato, approfondito con esempi di polimerizzazione TMC-L-lattide; la seconda parte esaminerà invece i copolimeri PDO-DL-lattide.
Resumo:
Questa tesi affronta lo studio di una tipologia di vibrazione autoeccitata, nota come chatter, che si manifesta nei processi di lavorazione ad asportazione di truciolo ed in particolare nelle lavorazioni di fresatura. La tesi discute inoltre lo sviluppo di una tecnica di monitoraggio e diagnostica del chatter basato sul rilievo di vibrazioni. Il fenomeno del chatter è caratterizzato da violente oscillazioni tra utensile e pezzo in lavorazione ed elevate emissioni acustiche. Il chatter, se non controllato, causa uno scadimento qualitativo della finitura superficiale e delle tolleranze dimensionali del lavorato, una riduzione della vita degli utensili e dei componenti della macchina. Questa vibrazione affligge negativamente la produttività e la qualità del processo di lavorazione e pregiudica l’interazione uomo-macchina-ambiente. Per una data combinazione di macchina, utensile e pezzo lavorato, i fattori che controllano la velocità di asportazione del materiale sono gli stessi che controllano l’insorgenza del chatter: la velocità di rotazione del mandrino, la profondità assiale di passata e la velocità di avanzamento dell’utensile. Per studiare il fenomeno di chatter, con l’obbiettivo di individuare possibili soluzioni per limitarne o controllarne l’insorgenza, vengono proposti in questa tesi alcuni modelli del processo di fresatura. Tali modelli comprendono il modello viscoelastico della macchina fresatrice e il modello delle azioni di taglio. Per le azioni di taglio è stato utilizzato un modello presente in letteratura, mentre per la macchina fresatrice sono stati utilizzato modelli a parametri concentrati e modelli modali analitico-sperimentali. Questi ultimi sono stati ottenuti accoppiando un modello modale sperimentale del telaio, completo di mandrino, della macchina fresatrice con un modello analitico, basato sulla teoria delle travi, dell’utensile. Le equazioni del moto, associate al processo di fresatura, risultano essere equazioni differenziali con ritardo a coefficienti periodici o PDDE (Periodic Delay Diefferential Equations). È stata implementata una procedura numerica per mappare, nello spazio dei parametri di taglio, la stabilità e le caratteristiche spettrali (frequenze caratteristiche della vibrazione di chatter) delle equazioni del moto associate ai modelli del processo di fresatura proposti. Per testare i modelli e le procedure numeriche proposte, una macchina fresatrice CNC 4 assi, di proprietà del Dipartimento di Ingegneria delle Costruzioni Meccaniche Nucleari e Metallurgiche (DIEM) dell’Università di Bologna, è stata strumentata con accelerometri, con una tavola dinamometrica per la misura delle forze di taglio e con un adeguato sistema di acquisizione. Eseguendo varie prove di lavorazione sono stati identificati i coefficienti di pressione di taglio contenuti nel modello delle forze di taglio. Sono stati condotti, a macchina ferma, rilievi di FRFs (Funzioni Risposta in Frequenza) per identificare, tramite tecniche di analisi modale sperimentale, i modelli del solo telaio e della macchina fresatrice completa di utensile. I segnali acquisiti durante le numerose prove di lavorazione eseguite, al variare dei parametri di taglio, sono stati analizzati per valutare la stabilità di ciascun punto di lavoro e le caratteristiche spettrali della vibrazione associata. Questi risultati sono stati confrontati con quelli ottenuti applicando la procedura numerica proposta ai diversi modelli di macchina fresatrice implementati. Sono state individuate le criticità della procedura di modellazione delle macchine fresatrici a parametri concentrati, proposta in letteratura, che portano a previsioni erronee sulla stabilità delle lavorazioni. È stato mostrato come tali criticità vengano solo in parte superate con l’utilizzo dei modelli modali analitico-sperimentali proposti. Sulla base dei risultati ottenuti, è stato proposto un sistema automatico, basato su misure accelerometriche, per diagnosticare, in tempo reale, l’insorgenza del chatter durante una lavorazione. È stato realizzato un prototipo di tale sistema di diagnostica il cui funzionamento è stato provato mediante prove di lavorazione eseguite su due diverse macchine fresatrici CNC.
Resumo:
Le celle a combustibile ad ossido solido (SOFC) sono reattori elettrochimici che convertono l’energia chimica di un gas combustibile direttamente in energia elettrica con un’alta efficienza e con basse emissioni. Il materiale più comunemente usato come anodo, il Ni/YSZ cermet, mostra però numerosi svantaggi nell’applicazione quali la suscettibilità all’avvelenamento da zolfo e la deposizione di coke per cracking degli idrocarburi usati come combustibile. E’ perciò necessario sviluppare materiali alternativi che sopperiscano a questi problemi. Il titanato di stronzio drogato con lantanio con stechiometria La0.4Sr0.4TiO3 (LST) è stato scelto come anodo alternativo per le ottime proprietà possedute. Lo scopo del lavoro di tesi è stato quindi lo studio dell’influenza della natura dei precursori, delle condizioni di sintesi e dell’aggiunta di agenti porizzanti necessari per l’ottenimento della fase perovskitica pura e con porosità controllata. In un primo tempo è stata verificata la possibilità di ottenere la fase La0.4Sr0.4TiO3 pura mediante sintesi allo stato solido, trattando termicamente miscele di precursori diversi. I risultati ottenuti hanno evidenziato che l’utilizzo di nitrati metallici porta a risultati migliori rispetto all’utilizzo di carbonati ed ossidi poiché permette la formazione della fase perovskite a temperature inferiori e con una purezza maggiore. Poiché l’analisi elementare sui materiali preparati in questa prima fase ha evidenziato un problema sulla stechiometria, il metodo di sintesi è stato ottimizzato solubilizzando preventivamente i precursori di lantanio e stronzio e determinandone il titolo mediante ICP. Inoltre, sono state effettuate delle sintesi utilizzando TiO2 a diversa area superficiale, per verificare l’effetto sulle fasi formate di una maggior reattività di questo componente. Per completezza la perovskite è stata sintetizzata anche tramite sintesi sol-gel, utilizzando il metodo Pechini, ottenendo a 700°C la fase pura. L’analisi morfologica ha evidenziato che le polveri con caratteristiche migliori per la formatura sono quelle ottenute tramite sintesi allo stato solido. Le pastiglie prodotte, miscelando tali polveri e agenti porizzanti opportuni, hanno evidenziato la stabilità della fase perovskitica voluta ma anche la necessità di ottimizzare l’aggiunta del porizzante per avere una porosità adeguata all’applicazione del sistema quale anodo SOFC.
Resumo:
Scopo di questa tesi di laurea sperimentale (LM) è stata la produzione di geopolimeri a base metacaolinitica con una porosità controllata. Le principali tematiche affrontate sono state: -la produzione di resine geopolimeriche, studiate per individuare le condizioni ottimali ed ottenere successivamente geopolimeri con un’ultra-macro-porosità indotta; -lo studio dell’effetto della quantità dell’acqua di reazione sulla micro- e meso-porosità intrinseche della struttura geopolimerica; -la realizzazione di schiume geopolimeriche, aggiungendo polvere di Si, e lo studio delle condizioni di foaming in situ; -la preparazione di schiume ceramiche a base di allumina, consolidate per via geopolimerica. Le principali proprietà dei campioni così ottenuti (porosità, area superficiale specifica, grado di geopolimerizzazione, comportamento termico, capacità di scambio ionico sia delle resine geopolimeriche che delle schiume, ecc.) sono state caratterizzate approfonditamente. Le principali evidenze sperimentali riscontrate sono: A)Effetto dell’acqua di reazione: la porosità intrinseca del geopolimero aumenta, sia come quantità che come dimensione, all’aumentare del contenuto di acqua. Un’eccessiva diluizione porta ad una minore formazione di nuclei con l’ottenimento di nano-precipitati di maggior dimensioni. Nelle schiume geopolimeriche, l’acqua gioca un ruolo fondamentale nell’espansione: deve essere presente un equilibrio ottimale tra la pressione esercitata dall’H2 e la resistenza opposta dalla parete del poro in formazione. B)Effetto dell’aggiunta di silicio metallico: un elevato contenuto di silicio influenza negativamente la reazione di geopolimerizzazione, in particolare quando associato a più elevate temperature di consolidamento (80°C), determinando una bassa geopolimerizzazione nei campioni. C)Effetto del grado di geopolimerizzazione e della micro- e macro-struttura: un basso grado di geopolimerizzazione diminuisce l’accessibilità della matrice geopolimerica determinata per scambio ionico e la porosità intrinseca determinata per desorbimento di N2. Il grado di geopolimerizzazione influenza anche le proprietà termiche: durante i test dilatometrici, se il campione non è completamente geopolimerizzato, si ha un’espansione che termina con la sinterizzazione e nell’intervallo tra i 400 e i 600 °C è presente un flesso, attribuibile alla transizione vetrosa del silicato di potassio non reagito. Le prove termiche evidenziano come la massima temperatura di utilizzo delle resine geopolimeriche sia di circa 800 °C.
Resumo:
L’attività della tesi riguarda le protesi mioelettriche, gli arti protesici maggiormente diffusi, le quali sono descrivibili come arti robotici in cui i segmenti artificiali sono attuati da giunti elettromeccanici alimentati da batterie ricaricabili ed attivati mediante segnali elettromiografici (segnali elettrici generati dalla contrazione dei muscoli). Tali protesi di arto superiore attualmente disponibili in commercio potrebbero essere inadeguate per una riabilitazione soddisfacente di alcuni pazienti con una amputazione di alto livello che richiedono una elevata funzionalità nella vita quotidiana. In questo contesto si inserisce l’attività di ricerca del Centro Protesi INAIL di Budrio di Vigorso, Bologna, e dell’Università di Bologna i quali stanno sviluppando nuovi arti protesici con il progetto a lungo termine di rendere disponibili svariate soluzioni di protesi di arto superiore in grado di soddisfare la maggior parte delle richieste degli amputati. Lo scopo di questa tesi è l’introduzione di un nuovo rotatore omerale attivo da integrare alla protesi di arto superiore disponibile presso i nostri laboratori. Per ottenere questo risultato è stata utilizzata una procedura di progettazione già consolidata in attività precedenti per lo sviluppo di una protesi di spalla a due gradi di libertà. Differenti modelli cinematici sono stati studiati tramite analisi cinematiche per determinare l’incremento delle prestazioni a seguito dell’introduzione del nuovo rotatore omerale attivo. Sono state inoltre condotte analisi cinetostatiche per definire le specifiche tecniche di riferimento (in termini di carichi agenti sul rotatore omerale) e per guidare il dimensionamento della catena di trasmissione di potenza del nuovo dispositivo protesico. Ulteriori specifiche tecniche sono state considerate per garantire l’irreversibilità spontanea del moto sotto carichi esterni (quando i giunti attivi della protesi non sono alimentati), per salvaguardare l’incolumità del paziente in caso di caduta, per misurare la posizione angolare del rotatore omerale (in modo da implementare strategie di controllo in retroazione) e per limitare i consumi e la rumorosità del dispositivo. Uno studio di fattibilità ha permesso la selezione della architettura ottimale della catena di trasmissione di potenza per il nuovo rotatore omerale. I criteri di scelta sono stati principalmente la limitazione del peso e dell’ingombro del nuovo dispositivo protesico. Si è quindi proceduto con la progettazione di dettaglio alla quale è seguita la costruzione di un prototipo del nuovo rotatore omerale presso i nostri laboratori. La tesi tratta infine una attività preliminare di sperimentazione che ha permesso di fare considerazioni sulle prestazioni del prototipo ed osservazioni importanti per le successive attività di revisione ed ottimizzazione del progetto del rotatore omerale.
Resumo:
implementazione e dimostrazione di semantiche per il nuovo linguaggio di modellazione concorrente ¨Multi-CCS¨
Resumo:
Recently in most of the industrial automation process an ever increasing degree of automation has been observed. This increasing is motivated by the higher requirement of systems with great performance in terms of quality of products/services generated, productivity, efficiency and low costs in the design, realization and maintenance. This trend in the growth of complex automation systems is rapidly spreading over automated manufacturing systems (AMS), where the integration of the mechanical and electronic technology, typical of the Mechatronics, is merging with other technologies such as Informatics and the communication networks. An AMS is a very complex system that can be thought constituted by a set of flexible working stations, one or more transportation systems. To understand how this machine are important in our society let considerate that every day most of us use bottles of water or soda, buy product in box like food or cigarets and so on. Another important consideration from its complexity derive from the fact that the the consortium of machine producers has estimated around 350 types of manufacturing machine. A large number of manufacturing machine industry are presented in Italy and notably packaging machine industry,in particular a great concentration of this kind of industry is located in Bologna area; for this reason the Bologna area is called “packaging valley”. Usually, the various parts of the AMS interact among them in a concurrent and asynchronous way, and coordinate the parts of the machine to obtain a desiderated overall behaviour is an hard task. Often, this is the case in large scale systems, organized in a modular and distributed manner. Even if the success of a modern AMS from a functional and behavioural point of view is still to attribute to the design choices operated in the definition of the mechanical structure and electrical electronic architecture, the system that governs the control of the plant is becoming crucial, because of the large number of duties associated to it. Apart from the activity inherent to the automation of themachine cycles, the supervisory system is called to perform other main functions such as: emulating the behaviour of traditional mechanical members thus allowing a drastic constructive simplification of the machine and a crucial functional flexibility; dynamically adapting the control strategies according to the different productive needs and to the different operational scenarios; obtaining a high quality of the final product through the verification of the correctness of the processing; addressing the operator devoted to themachine to promptly and carefully take the actions devoted to establish or restore the optimal operating conditions; managing in real time information on diagnostics, as a support of the maintenance operations of the machine. The kind of facilities that designers can directly find on themarket, in terms of software component libraries provides in fact an adequate support as regard the implementation of either top-level or bottom-level functionalities, typically pertaining to the domains of user-friendly HMIs, closed-loop regulation and motion control, fieldbus-based interconnection of remote smart devices. What is still lacking is a reference framework comprising a comprehensive set of highly reusable logic control components that, focussing on the cross-cutting functionalities characterizing the automation domain, may help the designers in the process of modelling and structuring their applications according to the specific needs. Historically, the design and verification process for complex automated industrial systems is performed in empirical way, without a clear distinction between functional and technological-implementation concepts and without a systematic method to organically deal with the complete system. Traditionally, in the field of analog and digital control design and verification through formal and simulation tools have been adopted since a long time ago, at least for multivariable and/or nonlinear controllers for complex time-driven dynamics as in the fields of vehicles, aircrafts, robots, electric drives and complex power electronics equipments. Moving to the field of logic control, typical for industrial manufacturing automation, the design and verification process is approached in a completely different way, usually very “unstructured”. No clear distinction between functions and implementations, between functional architectures and technological architectures and platforms is considered. Probably this difference is due to the different “dynamical framework”of logic control with respect to analog/digital control. As a matter of facts, in logic control discrete-events dynamics replace time-driven dynamics; hence most of the formal and mathematical tools of analog/digital control cannot be directly migrated to logic control to enlighten the distinction between functions and implementations. In addition, in the common view of application technicians, logic control design is strictly connected to the adopted implementation technology (relays in the past, software nowadays), leading again to a deep confusion among functional view and technological view. In Industrial automation software engineering, concepts as modularity, encapsulation, composability and reusability are strongly emphasized and profitably realized in the so-calledobject-oriented methodologies. Industrial automation is receiving lately this approach, as testified by some IEC standards IEC 611313, IEC 61499 which have been considered in commercial products only recently. On the other hand, in the scientific and technical literature many contributions have been already proposed to establish a suitable modelling framework for industrial automation. During last years it was possible to note a considerable growth in the exploitation of innovative concepts and technologies from ICT world in industrial automation systems. For what concerns the logic control design, Model Based Design (MBD) is being imported in industrial automation from software engineering field. Another key-point in industrial automated systems is the growth of requirements in terms of availability, reliability and safety for technological systems. In other words, the control system should not only deal with the nominal behaviour, but should also deal with other important duties, such as diagnosis and faults isolations, recovery and safety management. Indeed, together with high performance, in complex systems fault occurrences increase. This is a consequence of the fact that, as it typically occurs in reliable mechatronic systems, in complex systems such as AMS, together with reliable mechanical elements, an increasing number of electronic devices are also present, that are more vulnerable by their own nature. The diagnosis problem and the faults isolation in a generic dynamical system consists in the design of an elaboration unit that, appropriately processing the inputs and outputs of the dynamical system, is also capable of detecting incipient faults on the plant devices, reconfiguring the control system so as to guarantee satisfactory performance. The designer should be able to formally verify the product, certifying that, in its final implementation, it will perform itsrequired function guarantying the desired level of reliability and safety; the next step is that of preventing faults and eventually reconfiguring the control system so that faults are tolerated. On this topic an important improvement to formal verification of logic control, fault diagnosis and fault tolerant control results derive from Discrete Event Systems theory. The aimof this work is to define a design pattern and a control architecture to help the designer of control logic in industrial automated systems. The work starts with a brief discussion on main characteristics and description of industrial automated systems on Chapter 1. In Chapter 2 a survey on the state of the software engineering paradigm applied to industrial automation is discussed. Chapter 3 presentes a architecture for industrial automated systems based on the new concept of Generalized Actuator showing its benefits, while in Chapter 4 this architecture is refined using a novel entity, the Generalized Device in order to have a better reusability and modularity of the control logic. In Chapter 5 a new approach will be present based on Discrete Event Systems for the problemof software formal verification and an active fault tolerant control architecture using online diagnostic. Finally conclusive remarks and some ideas on new directions to explore are given. In Appendix A are briefly reported some concepts and results about Discrete Event Systems which should help the reader in understanding some crucial points in chapter 5; while in Appendix B an overview on the experimental testbed of the Laboratory of Automation of University of Bologna, is reported to validated the approach presented in chapter 3, chapter 4 and chapter 5. In Appendix C some components model used in chapter 5 for formal verification are reported.