105 resultados para Algoritmi genetici, Progettazione, Metodi di ottimizzazione

em AMS Tesi di Dottorato - Alm@DL - Università di Bologna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of this Doctoral Thesis is to develop a genetic algorithm based optimization methods to find the best conceptual design architecture of an aero-piston-engine, for given design specifications. Nowadays, the conceptual design of turbine airplanes starts with the aircraft specifications, then the most suited turbofan or turbo propeller for the specific application is chosen. In the aeronautical piston engines field, which has been dormant for several decades, as interest shifted towards turboaircraft, new materials with increased performance and properties have opened new possibilities for development. Moreover, the engine’s modularity given by the cylinder unit, makes it possible to design a specific engine for a given application. In many real engineering problems the amount of design variables may be very high, characterized by several non-linearities needed to describe the behaviour of the phenomena. In this case the objective function has many local extremes, but the designer is usually interested in the global one. The stochastic and the evolutionary optimization techniques, such as the genetic algorithms method, may offer reliable solutions to the design problems, within acceptable computational time. The optimization algorithm developed here can be employed in the first phase of the preliminary project of an aeronautical piston engine design. It’s a mono-objective genetic algorithm, which, starting from the given design specifications, finds the engine propulsive system configuration which possesses minimum mass while satisfying the geometrical, structural and performance constraints. The algorithm reads the project specifications as input data, namely the maximum values of crankshaft and propeller shaft speed and the maximal pressure value in the combustion chamber. The design variables bounds, that describe the solution domain from the geometrical point of view, are introduced too. In the Matlab® Optimization environment the objective function to be minimized is defined as the sum of the masses of the engine propulsive components. Each individual that is generated by the genetic algorithm is the assembly of the flywheel, the vibration damper and so many pistons, connecting rods, cranks, as the number of the cylinders. The fitness is evaluated for each individual of the population, then the rules of the genetic operators are applied, such as reproduction, mutation, selection, crossover. In the reproduction step the elitist method is applied, in order to save the fittest individuals from a contingent mutation and recombination disruption, making it undamaged survive until the next generation. Finally, as the best individual is found, the optimal dimensions values of the components are saved to an Excel® file, in order to build a CAD-automatic-3D-model for each component of the propulsive system, having a direct pre-visualization of the final product, still in the engine’s preliminary project design phase. With the purpose of showing the performance of the algorithm and validating this optimization method, an actual engine is taken, as a case study: it’s the 1900 JTD Fiat Avio, 4 cylinders, 4T, Diesel. Many verifications are made on the mechanical components of the engine, in order to test their feasibility and to decide their survival through generations. A system of inequalities is used to describe the non-linear relations between the design variables, and is used for components checking for static and dynamic loads configurations. The design variables geometrical boundaries are taken from actual engines data and similar design cases. Among the many simulations run for algorithm testing, twelve of them have been chosen as representative of the distribution of the individuals. Then, as an example, for each simulation, the corresponding 3D models of the crankshaft and the connecting rod, have been automatically built. In spite of morphological differences among the component the mass is almost the same. The results show a significant mass reduction (almost 20% for the crankshaft) in comparison to the original configuration, and an acceptable robustness of the method have been shown. The algorithm here developed is shown to be a valid method for an aeronautical-piston-engine preliminary project design optimization. In particular the procedure is able to analyze quite a wide range of design solutions, rejecting the ones that cannot fulfill the feasibility design specifications. This optimization algorithm could increase the aeronautical-piston-engine development, speeding up the production rate and joining modern computation performances and technological awareness to the long lasting traditional design experiences.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Water distribution networks optimization is a challenging problem due to the dimension and the complexity of these systems. Since the last half of the twentieth century this field has been investigated by many authors. Recently, to overcome discrete nature of variables and non linearity of equations, the research has been focused on the development of heuristic algorithms. This algorithms do not require continuity and linearity of the problem functions because they are linked to an external hydraulic simulator that solve equations of mass continuity and of energy conservation of the network. In this work, a NSGA-II (Non-dominating Sorting Genetic Algorithm) has been used. This is a heuristic multi-objective genetic algorithm based on the analogy of evolution in nature. Starting from an initial random set of solutions, called population, it evolves them towards a front of solutions that minimize, separately and contemporaneously, all the objectives. This can be very useful in practical problems where multiple and discordant goals are common. Usually, one of the main drawback of these algorithms is related to time consuming: being a stochastic research, a lot of solutions must be analized before good ones are found. Results of this thesis about the classical optimal design problem shows that is possible to improve results modifying the mathematical definition of objective functions and the survival criterion, inserting good solutions created by a Cellular Automata and using rules created by classifier algorithm (C4.5). This part has been tested using the version of NSGA-II supplied by Centre for Water Systems (University of Exeter, UK) in MATLAB® environment. Even if orientating the research can constrain the algorithm with the risk of not finding the optimal set of solutions, it can greatly improve the results. Subsequently, thanks to CINECA help, a version of NSGA-II has been implemented in C language and parallelized: results about the global parallelization show the speed up, while results about the island parallelization show that communication among islands can improve the optimization. Finally, some tests about the optimization of pump scheduling have been carried out. In this case, good results are found for a small network, while the solutions of a big problem are affected by the lack of constraints on the number of pump switches. Possible future research is about the insertion of further constraints and the evolution guide. In the end, the optimization of water distribution systems is still far from a definitive solution, but the improvement in this field can be very useful in reducing the solutions cost of practical problems, where the high number of variables makes their management very difficult from human point of view.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The present dissertation relates to methodologies and technics about industrial and mechanical design. The author intends to give a complete idea about the world of design, showing the theories of Quality Function Deployment and TRIZ, of other methods just like planning, budgeting, Value Analysis and Engineering, Concurrent Engineering, Design for Assembly and Manufactoring, etc., and their applications to five concrete cases. In these cases there are also illustrated design technics as CAD, CAS, CAM; Rendering, which are ways to transform an idea into reality. The most important object of the work is, however, the birth of a new methodology, coming up from a comparison between QFD and TRIZ and their integration through other methodologies, just like Time and Cost Analysis, learned and skilled during an important experience in a very famous Italian automotive factory.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduzione L’efficacia dei chemio/radioterapici ha aumentato notevolmente l’aspettativa di vita delle pazienti oncologiche, tuttavia, questi trattamenti possono compromettere la funzionalità ovarica. La crioconservazione di tessuto ovarico, con il successivo reimpianto, ha lo scopo di preservare la fertilità delle pazienti a rischio di fallimento ovarico precoce. Scopo dello studio Definire la migliore procedura di crioconservazione e reimpianto in grado di ottenere la neovascolarizzazione del tessuto reimpiantato nel minor tempo possibile al fine di diminuire la perdita follicolare causata dall’ischemia durante la procedura. Materiali e metodi Per ciascuna paziente (3) le biopsie ovariche, sono state prelevate laparoscopicamente e crioconservate secondo il protocollo di congelamento lento/scongelamento rapido. Campioni di corticale ovarica sono stati processati per l’analisi istologica, ultrastrutturale, immuistochimica e confocale per valutare la preservazione morfologiaca del tessuto. Le fettine di corticale ovarica sono state scongelate e reimpiantate ortotopicamente (2), nelle ovaia e in due tasche peritoneali, o eterotopicamente (1), in due tasche create nel sottocute sovrapubico. Risultati Le analisi di microscopia hanno mostrato il mantenimento di una discreta morfologia dello stroma, e dei vasi criopreservati e un lieve ma non significativo danneggiamento dei follicoli scongelati. Tutte le pazienti hanno mostrato la ripresa della funzionalità endocrina rispettivamente dopo 2/4 mesi dal reimpianto. Il color-doppler, inoltre ha rivelato un significativo aumento della vascolarizzazione ovarica rispetto alla quasi totale assenza di vascolarizzazione prima del reimpianto, quando le pazienti mostravano una conclamata menopausa. Conclusioni Lo studio ha confermato la ripresa della vascolarizzazione dell’ovaio in seguito a reimpianto avascolare di fettine di corticale, senza l’impiego di fattori esogeni o meccanici aggiuntivi, in tempi concordanti con i dati della letteratura. I risultati sono incoraggianti e l’avanzare degli studi e della ricerca potranno contribuire allo sviluppo di nuove metodologie di reimpianto che possano avere un successo clinico ed una sicurezza superiori a quelle finora ottenute.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro è incentrato sull’applicazione ed integrazione di differenti tecniche di indagine geofisica in campo ambientale e ingegneristico/archeologico. Alcuni esempi sono stati descritti al fine di dimostrare l’utilità delle metodologie geofisiche nella risoluzione di svariate problematiche. Nello specifico l’attenzione è stata rivolta all’utilizzo delle tecniche del Ground Penetrating Radar e del Time Domain Reflectometry in misure condotte su un corpo sabbioso simulante una Zona Insatura. L’esperimento è stato realizzato all’interno di un’area test costruita presso l’azienda agricola dell’Università La Tuscia di Viterbo. Hanno partecipato al progetto le Università di Roma Tre, Roma La Sapienza, La Tuscia, con il supporto tecnico della Sensore&Software. Nello studio è stato condotto un approccio definito idrogeofisico al fine di ottenere informazioni da misure dei parametri fisici relativi alla Zona Insatura simulata nell’area test. Il confronto e l’integrazione delle due differenti tecniche di indagine ha offerto la possibilità di estendere la profondidi indagine all’interno del corpo sabbioso e di verificare l’utilità della tecnica GPR nello studio degli effetti legati alle variazioni del contenuto d’acqua nel suolo, oltre a determinare la posizione della superficie piezometrica per i differenti scenari di saturazione. Uno specifico studio è stato realizzato sul segnale radar al fine di stabilire i fattori di influenza sulla sua propagazione all’interno del suolo. Il comportamento dei parametri dielettrici nelle condizioni di drenaggio e di imbibizione del corpo sabbioso è stato riprodotto attraverso una modellizzazione delle proprietà dielettriche ed idrologiche sulla base della dimensione, forma e distribuzione dei granuli di roccia e pori, nonché sulla base della storia relativa alla distribuzione dei fluidi di saturazione all’interno del mezzo. La modellizzazione è stata operata sulle basi concettuali del Differential Effective Medium Approximation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis was carried out in the context of a co-tutoring program between Centro Ceramico Bologna (Italy) and Instituto di Tecnologia Ceramica, Castellón de la Plana (Spain). The subject of the thesis is the synthesis of silver nanoparticles and at their likely decorative application in the productive process of porcelain ceramic tiles. Silver nanoparticles were chosen as a case study, because metal nanoparticles are thermally stable, and they have non-linear optical properties when nano-structured, and therefore they develop saturated colours. The nanoparticles were synthesized by chemical reduction in aqueous solution, a method chosen because of its reduced working steps and energy costs. Besides such a synthesis method uses non-expensive and non-toxic raw material. By adopting this synthesis technique, it was also possible to control the dimension and the final shape of the nanoparticles. Several syntheses were carried out during the research work, modifying the molecular weight of the reducing agent and/or the firing temperature, in order to evaluate the influence such parameters have on the Ag-nanoparticles formation. The syntheses were monitored with the use of UV-Vis spectroscopy and the average dimension as well as the morphology of the nanoparticles was analysed by SEM. From the spectroscopic data obtained from each synthesis, a kinetic study was completed, relating the progress of the reaction to the two variables (ie temperature and molecular weight of the reducing agent). The aim was finding equations that allow the establishing of a relationship between the operating conditions during the synthesis and the characteristics of the final product. The next step was finding the best method of synthesis for the decorative application. For such a purpose the amount of nanoparticles, their average particle size, the shape and the agglomeration are considered. An aqueous suspension containing the nanoparticles is then sprayed over the fired ceramic tiles and they are subsequently thermally treated in conditions similar to the industrial one. The colorimetric parameters of the obtained ceramic tiles were studied and the method proved successful, giving the ceramic tiles stable and intense colours.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The present work concerns with the study of debris flows and, in particular, with the related hazard in the Alpine Environment. During the last years several methodologies have been developed to evaluate hazard associated to such a complex phenomenon, whose velocity, impacting force and inappropriate temporal prediction are responsible of the related high hazard level. This research focuses its attention on the depositional phase of debris flows through the application of a numerical model (DFlowz), and on hazard evaluation related to watersheds morphometric, morphological and geological characterization. The main aims are to test the validity of DFlowz simulations and assess sources of errors in order to understand how the empirical uncertainties influence the predictions; on the other side the research concerns with the possibility of performing hazard analysis starting from the identification of susceptible debris flow catchments and definition of their activity level. 25 well documented debris flow events have been back analyzed with the model DFlowz (Berti and Simoni, 2007): derived form the implementation of the empirical relations between event volume and planimetric and cross section inundated areas, the code allows to delineate areas affected by an event by taking into account information about volume, preferential flow path and digital elevation model (DEM) of fan area. The analysis uses an objective methodology for evaluating the accuracy of the prediction and involve the calibration of the model based on factors describing the uncertainty associated to the semi empirical relationships. The general assumptions on which the model is based have been verified although the predictive capabilities are influenced by the uncertainties of the empirical scaling relationships, which have to be necessarily taken into account and depend mostly on errors concerning deposited volume estimation. In addition, in order to test prediction capabilities of physical-based models, some events have been simulated through the use of RAMMS (RApid Mass MovementS). The model, which has been developed by the Swiss Federal Institute for Forest, Snow and Landscape Research (WSL) in Birmensdorf and the Swiss Federal Institute for Snow and Avalanche Research (SLF) takes into account a one-phase approach based on Voellmy rheology (Voellmy, 1955; Salm et al., 1990). The input file combines the total volume of the debris flow located in a release area with a mean depth. The model predicts the affected area, the maximum depth and the flow velocity in each cell of the input DTM. Relatively to hazard analysis related to watersheds characterization, the database collected by the Alto Adige Province represents an opportunity to examine debris-flow sediment dynamics at the regional scale and analyze lithologic controls. With the aim of advancing current understandings about debris flow, this study focuses on 82 events in order to characterize the topographic conditions associated with their initiation , transportation and deposition, seasonal patterns of occurrence and examine the role played by bedrock geology on sediment transfer.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con la presente tesi si è inteso studiare le possibilità applicative di una particolare tipologia strutturale dotata di isolamento sismico “di piano”, intendendosi con ciò una struttura in cui l'intero piano terra, tramite l'inserimento di opportuni elementi dissipativi isteretici ed in analogia al consueto isolamento sismico di base, agisce da “strato” di protezione passiva per i piani sovrastanti. A riguardo, fra le possibili soluzioni per realizzare effettivamente tale isolamento "di piano" è stata considerata la disposizione di particolari elementi dissipativi isteretici di controvento detti Crecent-Shaped Braces, caratterizzati da una forma bilatera o curva, tale comunque da presentare un'eccentricità non nulla fra l'asse del controvento stesso e la linea congiungente gli estremi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La proteinuria è un marker di danno renale nel cane. L’obiettivo dello studio è di valutare la capacità del dipstick urinario e dell’UPC di diagnosticare precocemente l’albuminuria nel cane. Sono stati raccolti 868 campioni di urina, con sedimento spento e assenza di ematuria, nell’Ospedale Didattico Veterinario della Facoltà di Medicina Veterinaria di Bologna. Per 550 campioni è stata effettuata l’analisi delle urine, la misurazione dell’UPC e dell’UAC, mentre UPC e UAC sono stati misurati in tutti gli 868 campioni. I campioni di urina sono stati analizzati con il metodo dipstick mediante lettura automatizzata. Utilizzando come valore di riferimento l’UAC è stata valutata l’accuratezza diagnostica del dipstick urinario e dell’UPC. L’intervallo di riferimento dell’UAC (0-0,024) è stato determinato utilizzando 60 cani sani. I dati raccolti sono stati classificati utilizzando differenti cut-off per il peso specifico urinario (1012 o 1030), per la proteinuria al dipstick (30 o 100 mg/dl), per l’UPC (0,2) e per l’UAC (0,024). Sono stati valutati l’agreement diagnostico e la correlazione di Spearman tra dipstick, UPC e UAC. E’ stata stimata l’accuratezza diagnostica misurando l’area al di sotto della curva di ROC nell’analisi dell’UAC. Il livello di significatività è stato definito per p < 0,05. Indipendentemente dal peso specifico urinario, l’agreement diagnostico tra dipstick, UPC e UAC è risultato forte (k=0,62 e k=0,61, rispettivamente; p<0,001) con valori di dipstick ≥30 mg/dl, debole (k=0,27 e k=0,26, rispettivamente; p<0,001) con valori di dipstick ≥100 mg/dl. L’accuratezza diagnostica del dipstick messa a confronto con UPC e con UAC è molto buona (AUC 0,84 e 0,84, rispettivamente; p<0,001) e i risultati negativi al dipstick presentano il 100% di sensitività. UPC e UAC sono fortemente correlate (r=0,90; p<0,001). Mettendo a confronto UPC e UAC, l’accuratezza diagnostica è risultata eccellente (AUC 0,94; p<0,001), con massima sensitività e specificità per UPC≥0.3.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato ha ad oggetto lo studio della conciliazione e dell’arbitrato con riferimento alle controversie individuali di lavoro privato e pubblico. Vengono trattati i diversi profili che caratterizzano gli strumenti di risoluzione delle liti alternativi al processo, al fine di comprenderne la disciplina e l’effettiva portata, e di evidenziarne le criticità. L’elaborato si occupa, in primo luogo, di ricostruire il percorso di sviluppo della disciplina legislativa dei due istituti, partendo dalla configurazione del quadro della sua evoluzione storica e affrontando, poi, approfonditamente le più recenti tappe di tale evoluzione. Nella ricostruzione della disciplina della conciliazione e dell’arbitrato viene dato conto dell’assetto delle fonti, legislativa e contrattuale, definendone i rispettivi ruoli e competenze in materia: la tesi si sofferma quindi sul ruolo che il legislatore attribuisce all’autonomia collettiva e sulle modalità con le quali questo ruolo viene concretamente esercitato in sede di contrattazione. Successivamente, viene compiuta una valutazione delle conciliazioni e dell’arbitrato diretta a comprenderne l’efficacia e l’effettività. L’analisi pone in rilievo taluni elementi che sono ritenuti indispensabili per lo sviluppo delle predette caratteristiche e, quindi, per l’opzione e per la fiducia delle parti verso gli strumenti di composizione stragiudiziale delle liti. L’attenzione viene poi focalizzata sui regimi di impugnazione dei provvedimenti con cui si concludono le procedure stragiudiziali, sulla base della riflessione per la quale la diffusione di uno strumento di composizione delle controversie postula necessariamente un certo grado di stabilità degli atti che esso genera. L’ultima parte dell’elaborato è dedicata alla disamina delle ipotesi applicative di successo nell’esperienza italiana di Alternative Dispute Resolution, ossia il tentativo obbligatorio di conciliazione nei licenziamenti economici introdotto dalla Riforma Fornero, la conciliazione monocratica e l’arbitrato per l’impugnazione delle sanzioni disciplinari, anche con l’intento di comprendere quali caratteristiche ne abbiano favorito la diffusione, in rapporto alle altre tipologie di conciliazione e arbitrato di lavoro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’accoppiamento articolare in ceramica è sempre più utilizzato in chirurgia protesica dell’anca per le sue eccellenti proprietà tribologiche. Tuttavia la fragilità della ceramica è causa di fallimenti meccanici. Abbiamo quindi condotto una serie di studi al fine di individuare un metodo efficace di diagnosi precoce del fallimento della ceramica. Abbiamo analizzato delle componenti ceramiche espiantate e abbiamo trovato un pattern di usura pre-frattura che faceva supporre una dispersione di particelle di ceramica nello spazio articolare. Per la diagnosi precoce abbiamo validato una metodica basata sulla microanalisi del liquido sinoviale. Per validare la metodica abbiamo eseguito un agoaspirato in 12 protesi ben funzionanti (bianchi) e confrontato i risultati di 39 protesi con segni di rottura con quelli di 7 senza segni di rottura. Per individuare i pazienti a rischio rottura i dati demografici di 26 pazienti con ceramica rotta sono stati confrontati con 49 controlli comparabili in termini demografici, tipo di ceramica e tipo di protesi. Infine è stata condotta una revisione sistematica della letteratura sulla diagnosi della rottura della ceramica. Nell’aspirato la presenza di almeno 11 particelle ceramiche di dimensioni inferiori a 3 micron o di una maggiore di 3 micron per ogni campo di osservazione sono segno di rottura della ceramica. La metodica con agoaspirato ha 100% di sensibilità e 88 % di specificità nel predire rotture della ceramica. Nel gruppo delle ceramiche rotte è stato trovato un maggior numero di malposizionamenti della protesi rispetto ai controlli (p=0,001). Il rumore in protesi con ceramica dovrebbe sollevare il sospetto di fallimento ed indurre ad eseguire una TC e un agoaspirato. Dal confronto con la letteratura la nostra metodica risulta essere la più efficace.