924 resultados para Reasonable Lenght of Process
Resumo:
Lo studio presentato in questa sede concerne applicazioni di saldatura LASER caratterizzate da aspetti di non-convenzionalità ed è costituito da tre filoni principali. Nel primo ambito di intervento è stata valutata la possibilità di effettuare saldature per fusione, con LASER ad emissione continua, su pannelli Aluminum Foam Sandwich e su tubi riempiti in schiuma di alluminio. Lo studio ha messo in evidenza numerose linee operative riguardanti le problematiche relative alla saldatura delle pelli esterne dei componenti ed ha dimostrato la fattibilità relativa ad un approccio di giunzione LASER integrato (saldatura seguita da un post trattamento termico) per la realizzazione della giunzione completa di particolari tubolari riempiti in schiuma con ripristino della struttura cellulare all’interfaccia di giunzione. Il secondo ambito di intervento è caratterizzato dall’applicazione di una sorgente LASER di bassissima potenza, operante in regime ad impulsi corti, nella saldatura di acciaio ad elevato contenuto di carbonio. Lo studio ha messo in evidenza come questo tipo di sorgente, solitamente applicata per lavorazioni di ablazione e marcatura, possa essere applicata anche alla saldatura di spessori sub-millimetrici. In questa fase è stato messo in evidenza il ruolo dei parametri di lavoro sulla conformazione del giunto ed è stata definita l’area di fattibilità del processo. Lo studio è stato completato investigando la possibilità di applicare un trattamento LASER dopo saldatura per addolcire le eventuali zone indurite. In merito all’ultimo ambito di intervento l’attività di studio si è focalizzata sull’utilizzo di sorgenti ad elevata densità di potenza (60 MW/cm^2) nella saldatura a profonda penetrazione di acciai da costruzione. L’attività sperimentale e di analisi dei risultati è stata condotta mediante tecniche di Design of Experiment per la valutazione del ruolo preciso di tutti i parametri di processo e numerose considerazioni relative alla formazione di cricche a caldo sono state suggerite.
Resumo:
Il problema storico che è al centro di questo progetto di ricerca può essere così riassunto: in che modo viene selezionata la classe dirigente comunista nell’Italia repubblicana? Ovvero, detto in altri termini, in che misura le nomine dipendevano dal centro, per cooptazione, secondo la tradizione del modello di partito centralizzato, e quanto, invece, costituivano una ratifica alta di processi di selezione che si sviluppavano in periferia? Quanto contava, insomma, l’aver avuto lo scettro del comando nei territori di provenienza per ricoprire incarichi direttivi nel partito a livello nazionale? La nostra ricerca vuole quindi verificare la validità di alcuni paradigmi interpretativi, scaturiti da un’analisi complessiva della politica comunista, prendendo in esame un caso di studio locale, quello di una regione «rossa» per antonomasia come la Toscana. Tenendo conto, contestualmente, della realtà nazionale e di quella locale, cercheremo di analizzare, le ricadute che processi di portata nazionale ebbero sulla realtà locale, e in particolare, sulle modalità che regolavano la selezione della classe dirigente, dando alla ricerca un taglio prosopografico.
Resumo:
In der Herstellung fester Darreichungsformen umfasst die Granulierung einen komplexen Teilprozess mit hoher Relevanz für die Qualität des pharmazeutischen Produktes. Die Wirbelschichtgranulierung ist ein spezielles Granulierverfahren, welches die Teilprozesse Mischen, Agglomerieren und Trocknen in einem Gerät vereint. Durch die Kombination mehrerer Prozessstufen unterliegt gerade dieses Verfahren besonderen Anforderungen an ein umfassendes Prozessverständnis. Durch die konsequente Verfolgung des PAT- Ansatzes, welcher im Jahre 2004 durch die amerikanische Zulassungsbehörde (FDA) als Guideline veröffentlicht wurde, wurde der Grundstein für eine kontinuierliche Prozessverbesserung durch erhöhtes Prozessverständnis, für Qualitätserhöhung und Kostenreduktion gegeben. Die vorliegende Arbeit befasste sich mit der Optimierung der Wirbelschicht-Granulationsprozesse von zwei prozesssensiblen Arzneistoffformulierungen, unter Verwendung von PAT. rnFür die Enalapril- Formulierung, einer niedrig dosierten und hochaktiven Arzneistoffrezeptur, wurde herausgefunden, dass durch eine feinere Zerstäubung der Granulierflüssigkeit deutlich größere Granulatkörnchen erhalten werden. Eine Erhöhung der MassRatio verringert die Tröpfchengröße, dies führt zu größeren Granulaten. Sollen Enalapril- Granulate mit einem gewünschten D50-Kornverteilung zwischen 100 und 140 um hergestellt werden, dann muss die MassRatio auf hohem Niveau eingestellt werden. Sollen Enalapril- Granulate mit einem D50- Wert zwischen 80 und 120µm erhalten werden, so muss die MassRatio auf niedrigem Niveau eingestellt sein. Anhand der durchgeführten Untersuchungen konnte gezeigt werden, dass die MassRatio ein wichtiger Parameter ist und zur Steuerung der Partikelgröße der Enalapril- Granulate eingesetzt werden kann; unter der Voraussetzung dass alle anderen Prozessparameter konstant gehalten werden.rnDie Betrachtung der Schnittmengenplots gibt die Möglichkeit geeignete Einstellungen der Prozessparameter bzw. Einflussgrößen zu bestimmen, welche dann zu den gewünschten Granulat- und Tabletteneigenschaften führen. Anhand der Lage und der Größe der Schnittmenge können die Grenzen der Prozessparameter zur Herstellung der Enalapril- Granulate bestimmt werden. Werden die Grenzen bzw. der „Design Space“ der Prozessparameter eingehalten, kann eine hochwertige Produktqualität garantiert werden. rnUm qualitativ hochwertige Enalapril Tabletten mit der gewählten Formulierung herzustellen, sollte die Enalapril- Granulation mit folgenden Prozessparametern durchgeführt werden: niedrige Sprührate, hoher MassRatio, einer Zulufttemperatur von mindestens > 50 °C und einer effektiven Zuluftmenge < 180 Nm³/h. Wird hingegen eine Sprührate von 45 g/min und eine mittlere MassRatio von 4.54 eingestellt, so muss die effektive Zuluftmenge mindestens 200 Nm³/h und die Zulufttemperatur mindestens 60 °C betragen, um eine vorhersagbar hohe Tablettenqualität zu erhalten. Qualität wird in das Arzneimittel bereits während der Herstellung implementiert, indem die Prozessparameter bei der Enalapril- Granulierung innerhalb des „Design Space“ gehalten werden.rnFür die Metformin- Formulierung, einer hoch dosierten aber wenig aktiven Arzneistoffrezeptur wurde herausgefunden, dass sich der Wachstumsmechanismus des Feinanteils der Metformin- Granulate von dem Wachstumsmechanismus der D50- und D90- Kornverteilung unterscheidet. Der Wachstumsmechanismus der Granulate ist abhängig von der Partikelbenetzung durch die versprühten Flüssigkeitströpfchen und vom Größenverhältnis von Partikel zu Sprühtröpfchen. Der Einfluss der MassRatio ist für die D10- Kornverteilung der Granulate vernachlässigbar klein. rnMit Hilfe der Störgrößen- Untersuchungen konnte eine Regeleffizienz der Prozessparameter für eine niedrig dosierte (Enalapril)- und eine hoch dosierte (Metformin) Arzneistoffformulierung erarbeitet werden, wodurch eine weitgehende Automatisierung zur Verringerung von Fehlerquellen durch Nachregelung der Störgrößen ermöglicht wird. Es ergibt sich für die gesamte Prozesskette ein in sich geschlossener PAT- Ansatz. Die Prozessparameter Sprührate und Zuluftmenge erwiesen sich als am besten geeignet. Die Nachregelung mit dem Parameter Zulufttemperatur erwies sich als träge. rnFerner wurden in der Arbeit Herstellverfahren für Granulate und Tabletten für zwei prozesssensible Wirkstoffe entwickelt. Die Robustheit der Herstellverfahren gegenüber Störgrößen konnte demonstriert werden, wodurch die Voraussetzungen für eine Echtzeitfreigabe gemäß dem PAT- Gedanken geschaffen sind. Die Kontrolle der Qualität des Produkts findet nicht am Ende der Produktions- Prozesskette statt, sondern die Kontrolle wird bereits während des Prozesses durchgeführt und basiert auf einem besseren Verständnis des Produktes und des Prozesses. Außerdem wurde durch die konsequente Verfolgung des PAT- Ansatzes die Möglichkeit zur kontinuierlichen Prozessverbesserung, zur Qualitätserhöhung und Kostenreduktion gegeben und damit das ganzheitliche Ziel des PAT- Gedankens erreicht und verwirklicht.rn
Resumo:
Mössbauer Spektroskopie ist ein unverzichtbares Instrument für die Bestimmung von Oxidationszuständen und für die Analyse von lokalen Ordnungsphänomenen von Mössbauer aktiven Atomen. Weil es sich um eine lokale Methode handelt können sowohl kristalline als auch amorphe Materialien untersucht werden. Die Kombination von lokaler Prüfung mit Mössbauer Spektroskopie und globaler Untersuchung z.B. mit Röntgendiffraktometrie ermöglicht die Studie von Ordnungseffekten von statistisch besetzten Positionen in einer geordneten Matrix. Das wurde hier eingesetzt um die lokale Umgebung in zwei Serien von Heuslerverbindungen, Co2-xFe1+xSi and Co2Mn1-xFexAl zu untersuchen. Für die Co2Mn1-xFexAl Serie wurde eine L21 geordnete Phase in einer insgesamt B2 geordneten Probe detektiert. Ein Wechsel von der AlCu2Mn zu der CuHg2Ti Struktur wurde für die Co2-xFe1+xSi Proben gefunden. Die Transformation von einem Glas zu einem keramischen Material wurde mit 119Sn Mössbauer Spektroskopie untersucht. Die höhere Ordnung in der Keramik wurde von einer kleiner werdenden Mössbauerlinienbreite begleitet. Demzufolge geben die Modifikationen der Sn Umgebungen klar die Transformation des gesamten Materials wieder. Ist die lokale Umgebung von unregelmäßig auftretenden Atomen in einer amorphen Matrix von Interesse, sind lokal prüfende Methoden die zuverlässigsten Methoden die zur Verfügung stehen. In dieser Arbeit wurde 119Sn Mössbauer Spektroskopie eingesetzt um die Oxidationszustände, die lokalen Umgebungen und relativen Intensitäten von Zinn Atomen in einer Silikatmatrix zu bestimmen. Modifikationen dieser Parameter als Funktion von Prozess bestimmenden Parametern wie der Sauerstoffpartialdruck, die Temperatur, die Behandlungsdauer und der Abkühlprozess genauso wie der SnO2 Gehalt sind von Interesse, weil durch Reduktions- und Diffusionsprozesse Änderungen des Koordinations- und des Oxidationszustands der Zinnatome auftreten. Da diese Änderungen in der Glasmatrix verursachen, die das fertige Produkt im industriellen Fertigungsprozess ruinieren können sind diese feinen Veränderungen sehr wichtig. Wenigstens zwei Mössbauerlinien korrespondierend mit zwei verschiedenen Umgebungen für Sn2+ und Sn4+ sind für eine Analyse mit ausreichender Qualität notwendig. Durch Vergleich von den bestimmten Hyperfein Parametern mit den Parametern von Modelsubstanzen werden lokale Umgebungen der Zinnatome entworfen. Für Sn2+ werden zwei auf einer trigonalen Pyramide basierende Umgebungen mit variierender Anzahl von bindenden und nicht-bindenden Sauerstoffatomen formuliert. Für Sn4+ wurde eine tetraedrische und eine oktaedrische Umgebung postuliert. Die relativen Intensitäten der vier Mössbauerlinien wurden um ein Diffusions- und Reaktionsmodell zu entwickeln und um einen Satz von Diffusions- und Transferkoeffizienten zu bestimmen eingesetzt. Die bestimmten Diffusionskoeffizienten stimmen mit den Literaturdaten überein. Der Massentransferkoeffizient ist kleiner als der bestimmte Wert, aber immer noch in der gleichen Größenordnung. Im Gegensatz zu den Erwartungen ist der präsentierte Diffusionskoeffizient für Sn4+ bestimmt als der von Sn2+. Das wiederum kann durch Berücksichtigung von Elektronhoppingprozessen erklärt werden.
Resumo:
In dieser Arbeit wird eine Methode entwickelt, die Rossbywellenzüge automatisch identifiziert und und deren Eigenschaften quantifiziert. Mit dieser Methode wird der Wellenzug als eine Einheit in Raum und Zeit interpretiert. Einheit im Raum heißt, dass nicht die einzelnen Tröge und Rücken eines Wellenzugs betrachtet werden, sondern deren Einhüllende. Einheit in der Zeit bedeutet, dass der Wellenzug nicht nur zu einem Zeitpunkt betrachtet wird, sondern über seine gesamte Lebensdauer hinweg. Um den Wellenzug als räumliche und zeitliche Einheit zu erhalten, werden die Einhüllenden der Wellenzüge in Längengrad-Zeit Diagrammen, sogenannten Hovmöllerdiagrammen, betrachtet. Dort werden zusammenhängende Regionen als Objekte, die jeweils einen Wellenzug repräsentieren, identifiziert. Deren Eigenschaften werden dann automatisch berechnet. Diese Eigenschaften können nun direkt dem zugrunde liegenden Rossbywellenzug zugeordnet werden.rnDie neue Methode wird in zwei verschiedenen Szenarien angewendet: erstens zur Beurteilung der Vorhersagequalität eines einzelnen Rossbywellenzugs und zweitens für die klimatologische Betrachtung von Rossbywellenzügen im ERA-40 Reanalysedatensatz. Sie wurde weiterhin mit bisher verwendeten Methoden zur Identifikation und Quantifizierung von Rossbywellenzügen verglichen.rnDie Untersuchung der Vorhersagequalität ergab, dass in dem betrachteten Fall die Übereinstimmung der Vorhersage mit der Analyse des Wellenzugs gering war, sofern das Modell initialisiert wurde, bevor der Rossbywellenzug eingesetzt hatte. Im Gegensatz dazu nahm die Vorhersagequalität deutlich zu, wenn der Wellenzug bereits in den Vorhersagedaten enthalten war. Dies deutet darauf hin, dass es in dem vorliegenden Fall problematisch ist, mit dem Modell den Auslösemechanismus korrekt voherzusagen. Für die weitere Untersuchung der Vorhersagequalität wurde eine spezielle Art der Darstellung der Daten verwendet, mit deren Hilfe deutlich wurde, dass das verwendete Modell in der Lage ist, diesen Wellenzug ungefähr sechs Tage im Voraus vorherzusagen. Diese Zeitspanne ist deutlich kürzer als die Lebensdauer des Wellenzugs, die etwa 10 Tage beträgt.rnIm Rahmen der klimatologischen Studie ergab sich eine positive Korrelation zwischen der Lebensdauer eines Rossbywellenzugs und des Bereichs den dieser Wellenzug während seiner gesamten Existenz in zonaler Richtung überstreicht. Für Wellenzüge mit einer kurzen Lebensdauer ergab sich eine ebenfalls positive Korrelation zwischen der mittleren Amplitude und der Dauer des Wellenzugs. Für eine längere Lebensdauer geht diese Korrelation aber in eine Sättigung über und die mittlere Amplitude steigt nicht mehr weiter an. Als eine mögliche Erklärung für dieses Verhalten wird angeführt, dass eine gewisse Stärke der Amplitude benötigt wird um stromabwärtige Entwicklung zu erhalten aber zu große Amplituden im Allgemeinen zum Brechen der Welle führen. Das Brechen leitet den letzten Abschnitt im Lebenszyklus eines Rossbywellenzuges ein, welcher im Anschluss meist zerfällt. Ein weiteres Ergebnis der klimatologischen Untersuchung ist das Auffinden bevorzugter Regionen der Entstehung und des Abklingens von Rossbywellenzügen. Diese Regionen unterscheiden sich erheblich für Rossbywellenzüge unterschiedlicher minimaler Lebensdauer. Langlebige Rossbywellenzüge entstehen demnach hauptsächlich über Ostasien und dem Westpazifik und vergehen dann über Europa.rnSchließlich wurde die entwickelte Methode in einen systematischen Vergleich anderer Methoden zur Identifikation und Quantifizierung von Rossbywellenzügen eingereiht. Die betrachteten Methoden beinhalten verschiedene Trog-und-Rücken Hovmöllerdiagramme des Meridionalwindes, Methoden die Rossbywellenzüge als eine Einheit identifizieren und Methoden die den Beitrag verschiedener physikalischer Aspekte zu der Entwicklung von Rossbywellenenzügen quantifizieren. Der Vergleich macht deutlich, dass jede Methode ihre individuellen Stärken und Schwächen hat. Dies bedeutet insbesondere, dass die Eignung der Methode von dem Stadium des Lebenszyklus, in dem sich der Rossbywellenzug befindet und dem Fokus, den man bei der Betrachtung hat, abhängt. Ideal ist eine Kombination mehrerer Methoden, da dies ein vollständigeres Bild eines Rossbywellenzuges ergibt als einzelne Methoden es zu liefern vermögen. Obwohl alle Methoden für die Anwendungen, für die sie jeweils konzipiert wurden, geeignet sind, ergeben sich bei der Diagnose der Rossbywellenzüge beträchtliche Unterschiede. Letztendlich stellt sich heraus, dass sogar die Defintion eines Rossbywellenzugs bis zu einem gewissen Grad von der zu seiner Identifizierung verwendeten Methode abhängt.
Resumo:
L’oggetto principale delle attività di tesi è la caratterizzazione numerico-sperimentale di processi di colata in sabbia di ghisa sferoidale. Inizialmente è stata effettuata un’approfondita indagine bibliografica per comprendere appieno le problematiche relative all’influenza dei parametri del processo fusorio (composizione chimica, trattamento del bagno, velocità di raffreddamento) sulle proprietà microstrutturali e meccaniche di getti ottenuti e per valutare lo stato dell’arte degli strumenti numerici di simulazione delle dinamiche di solidificazione e di previsione delle microstrutture. Sono state definite, realizzate ed impiegate attrezzature sperimentali di colata per la caratterizzazione di leghe rivolte alla misura ed alla differenziazione delle condizioni di processo, in particolare le velocità di raffreddamento, ed atte a validare strumenti di simulazione numerica e modelli previsionali. Inoltre sono stati progettati ed impiegati diversi sistemi per l’acquisizione ed analisi delle temperature all’interno di getti anche di grandi dimensioni. Lo studio, mediante analisi metallografica, di campioni di materiale ottenuto in condizioni differenziate ha confermato l’effetto dei parametri di processo considerati sulle proprietà microstrutturali quali dimensioni dei noduli di grafite e contenuto di ferrite e perlite. In getti di grandi dimensioni si è riscontrata anche una forte influenza dei fenomeni di macrosegregazione e convezione della lega su microstrutture e difettologie dei getti. Le attività si sono concentrate principalmente nella simulazione numerica FEM dei processi fusori studiati e nell’impiego di modelli empirico-analitici per la previsione delle microstrutture. I dati misurati di temperature di processo e di microstrutture sono stati impiegati per la validazione ed ottimizzazione degli strumenti numerici previsionali impiegati su un ampio intervallo di condizioni di processo. L’impiego di strumenti affidabili di simulazione del processo fusorio, attraverso l’implementazione di correlazioni sperimentali microstrutture-proprietà meccaniche, permette la valutazione di proprietà e difettologie dei getti, fornendo un valido aiuto nell’ottimizzazione del prodotto finito e del relativo processo produttivo.
Resumo:
Il progetto di ricerca è finalizzato allo sviluppo di una metodologia innovativa di supporto decisionale nel processo di selezione tra alternative progettuali, basata su indicatori di prestazione. In particolare il lavoro si è focalizzato sulla definizione d’indicatori atti a supportare la decisione negli interventi di sbottigliamento di un impianto di processo. Sono stati sviluppati due indicatori, “bottleneck indicators”, che permettono di valutare la reale necessità dello sbottigliamento, individuando le cause che impediscono la produzione e lo sfruttamento delle apparecchiature. Questi sono stati validati attraverso l’applicazione all’analisi di un intervento su un impianto esistente e verificando che lo sfruttamento delle apparecchiature fosse correttamente individuato. Definita la necessità dell’intervento di sbottigliamento, è stato affrontato il problema della selezione tra alternative di processo possibili per realizzarlo. È stato applicato alla scelta un metodo basato su indicatori di sostenibilità che consente di confrontare le alternative considerando non solo il ritorno economico degli investimenti ma anche gli impatti su ambiente e sicurezza, e che è stato ulteriormente sviluppato in questa tesi. Sono stati definiti due indicatori, “area hazard indicators”, relativi alle emissioni fuggitive, per integrare questi aspetti nell’analisi della sostenibilità delle alternative. Per migliorare l’accuratezza nella quantificazione degli impatti è stato sviluppato un nuovo modello previsionale atto alla stima delle emissioni fuggitive di un impianto, basato unicamente sui dati disponibili in fase progettuale, che tiene conto delle tipologie di sorgenti emettitrici, dei loro meccanismi di perdita e della manutenzione. Validato mediante il confronto con dati sperimentali di un impianto produttivo, si è dimostrato che tale metodo è indispensabile per un corretto confronto delle alternative poiché i modelli esistenti sovrastimano eccessivamente le emissioni reali. Infine applicando gli indicatori ad un impianto esistente si è dimostrato che sono fondamentali per semplificare il processo decisionale, fornendo chiare e precise indicazioni impiegando un numero limitato di informazioni per ricavarle.
Resumo:
This thesis aims at investigating a new approach to document analysis based on the idea of structural patterns in XML vocabularies. My work is founded on the belief that authors do naturally converge to a reasonable use of markup languages and that extreme, yet valid instances are rare and limited. Actual documents, therefore, may be used to derive classes of elements (patterns) persisting across documents and distilling the conceptualization of the documents and their components, and may give ground for automatic tools and services that rely on no background information (such as schemas) at all. The central part of my work consists in introducing from the ground up a formal theory of eight structural patterns (with three sub-patterns) that are able to express the logical organization of any XML document, and verifying their identifiability in a number of different vocabularies. This model is characterized by and validated against three main dimensions: terseness (i.e. the ability to represent the structure of a document with a small number of objects and composition rules), coverage (i.e. the ability to capture any possible situation in any document) and expressiveness (i.e. the ability to make explicit the semantics of structures, relations and dependencies). An algorithm for the automatic recognition of structural patterns is then presented, together with an evaluation of the results of a test performed on a set of more than 1100 documents from eight very different vocabularies. This language-independent analysis confirms the ability of patterns to capture and summarize the guidelines used by the authors in their everyday practice. Finally, I present some systems that work directly on the pattern-based representation of documents. The ability of these tools to cover very different situations and contexts confirms the effectiveness of the model.
Resumo:
Implantation of a ventricular assist device (VAD) reduces short-term mortality and morbidity and provides patients with reasonable quality of life even though it may also be a long-lasting emotional burden. This study was conducted to analyze the long-time emotional consequences of VAD implantation, followed by heart transplantation in patients and spouses.
Resumo:
The feasibility of carbon sequestration in cement kiln dust (CKD) was investigated in a series of batch and column experiments conducted under ambient temperature and pressure conditions. The significance of this work is the demonstration that alkaline wastes, such as CKD, are highly reactive with carbon dioxide (CO2). In the presence of water, CKD can sequester greater than 80% of its theoretical capacity for carbon without any amendments or modifications to the waste. Other mineral carbonation technologies for carbon sequestration rely on the use of mined mineral feedstocks as the source of oxides. The mining, pre-processing and reaction conditions needed to create favorable carbonation kinetics all require significant additions of energy to the system. Therefore, their actual net reduction in CO2 is uncertain. Many suitable alkaline wastes are produced at sites that also generate significant quantities of CO2. While independently, the reduction in CO2 emissions from mineral carbonation in CKD is small (~13% of process related emissions), when this technology is applied to similar wastes of other industries, the collective net reduction in emissions may be significant. The technical investigations presented in this dissertation progress from proof of feasibility through examination of the extent of sequestration in core samples taken from an aged CKD waste pile, to more fundamental batch and microscopy studies which analyze the rates and mechanisms controlling mineral carbonation reactions in a variety of fresh CKD types. Finally, the scale of the system was increased to assess the sequestration efficiency under more pilot or field-scale conditions and to clarify the importance of particle-scale processes under more dynamic (flowing gas) conditions. A comprehensive set of material characterization methods, including thermal analysis, Xray diffraction, and X-ray fluorescence, were used to confirm extents of carbonation and to better elucidate those compositional factors controlling the reactions. The results of these studies show that the rate of carbonation in CKD is controlled by the extent of carbonation. With increased degrees of conversion, particle-scale processes such as intraparticle diffusion and CaCO3 micropore precipitation patterns begin to limit the rate and possibly the extent of the reactions. Rates may also be influenced by the nature of the oxides participating in the reaction, slowing when the free or unbound oxides are consumed and reaction conditions shift towards the consumption of less reactive Ca species. While microscale processes and composition affects appear to be important at later times, the overall degrees of carbonation observed in the wastes were significant (> 80%), a majority of which occurs within the first 2 days of reaction. Under the operational conditions applied in this study, the degree of carbonation in CKD achieved in column-scale systems was comparable to those observed under ideal batch conditions. In addition, the similarity in sequestration performance among several different CKD waste types indicates that, aside from available oxide content, no compositional factors significantly hinder the ability of the waste to sequester CO2.
Resumo:
PURPOSE: To assess the literature on accuracy and clinical performance of computer technology applications in surgical implant dentistry. MATERIALS AND METHODS: Electronic and manual literature searches were conducted to collect information about (1) the accuracy and (2) clinical performance of computer-assisted implant systems. Meta-regression analysis was performed for summarizing the accuracy studies. Failure/complication rates were analyzed using random-effects Poisson regression models to obtain summary estimates of 12-month proportions. RESULTS: Twenty-nine different image guidance systems were included. From 2,827 articles, 13 clinical and 19 accuracy studies were included in this systematic review. The meta-analysis of the accuracy (19 clinical and preclinical studies) revealed a total mean error of 0.74 mm (maximum of 4.5 mm) at the entry point in the bone and 0.85 mm at the apex (maximum of 7.1 mm). For the 5 included clinical studies (total of 506 implants) using computer-assisted implant dentistry, the mean failure rate was 3.36% (0% to 8.45%) after an observation period of at least 12 months. In 4.6% of the treated cases, intraoperative complications were reported; these included limited interocclusal distances to perform guided implant placement, limited primary implant stability, or need for additional grafting procedures. CONCLUSION: Differing levels and quantity of evidence were available for computer-assisted implant placement, revealing high implant survival rates after only 12 months of observation in different indications and a reasonable level of accuracy. However, future long-term clinical data are necessary to identify clinical indications and to justify additional radiation doses, effort, and costs associated with computer-assisted implant surgery.
Resumo:
Auf dem Weg vom Rapid Prototyping zum Rapid Manufacturing ist erhöhte Prozesssicherheit sowie die Beherrschung verfahrensspezifischer Phänomene notwendig, um die immer weiter steigenden und konkreteren Bauteilanforderungen zu erfüllen. Dazu wurden diverse im SLM-Prozess auftretende Effekte untersucht. Basis der vorgestellten Entwicklungen sind grundlegende Erkenntnisse zur Oberflächenqualität von SLM-Bauteilen und Einflussgrößen auf Dichte und mechanische Eigenschaften der Bauteile verschiedener Werkstoffe. Ergebnis sind verschiedene Weiterentwicklungen der Standardbelichtungsstrategie, wodurch etwa Eigenspannungseffekte und Spritzerbildung positiv beeinflusst werden können.
Resumo:
Zur Optimierung innerbetrieblicher Logistikprozesse ist eine ganzheitliche Prozessdarstellung unter Berücksichtigung von Material-, Informationsfluss und der eingesetzten Ressourcen erforderlich. In diesem Aufsatz werden verschiedene, häufig verwendete Methoden zur Prozessdarstellung diesbezüglich miteinander verglichen und bewertet. Die verschiedenen Stärken und Schwächen werden in Form eines Benchmarks zusammengefasst, das als Grundlage für eine neue Methode dient, die im Rahmen des IGF-Forschungsprojekts 16187 N/1 erarbeitet wurde.
Resumo:
The mid-Holocene (6 kyr BP; thousand years before present) is a key period to study the consistency between model results and proxy-based reconstruction data as it corresponds to a standard test for models and a reasonable number of proxy-based records is available. Taking advantage of this relatively large amount of information, we have compared a compilation of 50 air and sea surface temperature reconstructions with the results of three simulations performed with general circulation models and one carried out with LOVECLIM, a model of intermediate complexity. The conclusions derived from this analysis confirm that models and data agree on the large-scale spatial pattern but the models underestimate the magnitude of some observed changes and that large discrepancies are observed at the local scale. To further investigate the origin of those inconsistencies, we have constrained LOVECLIM to follow the signal recorded by the proxies selected in the compilation using a data-assimilation method based on a particle filter. In one simulation, all the 50 proxy-based records are used while in the other two only the continental or oceanic proxy-based records constrain the model results. As expected, data assimilation leads to improving the consistency between model results and the reconstructions. In particular, this is achieved in a robust way in all the experiments through a strengthening of the westerlies at midlatitude that warms up northern Europe. Furthermore, the comparison of the LOVECLIM simulations with and without data assimilation has also objectively identified 16 proxy-based paleoclimate records whose reconstructed signal is either incompatible with the signal recorded by some other proxy-based records or with model physics.
Resumo:
To evaluate the sensitivity of postmortem computed tomography (PMCT) in rib fracture detection validated against autopsy. Fifty-one forensic cases underwent a postmortem CT prior to forensic autopsy. Two image readers (radiologist and forensic pathologist) assessed high resolution CT data sets for rib fractures. Correct recognition rates (CRR), sensitivity and specificity values were calculated over all observations as well as individually for every rib and region. Additionally, for partial rib fractures the sensitivity of autopsy was calculated vice versa. 3876 entries in each study protocol (autopsy, PMCT radiologist and PMCT forensic pathologist) were investigated. A total of 690 fractures (autopsy), 491 (PMCT and radiologist) and 559 (PMCT and forensic pathologist) were detected. The CRR was 0.85. Sensitivity and specificity of PMCT for rib fracture detection were 0.63 (0.58 radiologist, 0.68 forensic pathologist) and 0.97 (both readers 0.97), respectively. Low CRR and sensitivity values were obtained for antero-lateral fractures. Partial rib fractures were better detected by PMCT. PMCT has a rather low sensitivity for rib fracture detection when validated against autopsy and indicates that clinical CT may also demonstrate a reasonable number of false negatives. Partial rib fractures often remain undetected at autopsy.