845 resultados para thread rolling
Resumo:
In the present work, studies on vulcanization, rheology and reinforcement of natural rubber latex with special reference to accelerator combinations, surface active agents and gamma irradiation have been undertaken. In vulcanization, the choice of vulcanization system, the extent and mc-zie of vulcanization and network structure of the vulcanizate are important factors contributing to the overall quality of the product. The vulcanization system may be conventional type using elemental sulfur or a system involving sulfur donors. The latter type is used mainly in the manufacture of heat resistant products. For improving the technical properties of the products such as modulus and tensile strength, different accelerator combinations are used. It is known that accelerators have a strong effect on the physical properties of rubber vulcanizates. A perusal of the literature indicates that fundamental studies on the above aspects of latex technology are very limited. Thereforea systematic study on vulcanization, rheology and reinforcement of natural rubber latex with reference to the effect of accelerator combinations, surface active agents and gamma irradiation has been undertaken. The preparation and evaluation of some products like latex thread was also undertaken as a part of the study. The thesis consists of six chapter
Resumo:
Sensitisation of natural rubber latex by addition of a small quantity of an anionic surfactant prior to the addition of a coacervant results in quick coagulation. The natural rubber prepared by the novel coagulation method shows improved raw rubber characteristics, better cure characteristics in gum and carbon black filled compounds and improved mechanical properties as compared to the conventionally coagulated natural rubber. Compounds based on dried masterbatches prepared by the incorporation of fluffy carbon black in different forms of soap sensitised natural rubber latices such as fresh latex, preserved field latex, centrifuged latex and a blend of preserved field latex and skim latex show improved cure characteristics and vucanizate properties as compared to an equivalent conventional dry rubber-fluffy carbon black based compound. The latex masterbatch based vulcanizates show higher level of crosslinking and better dispersion of filler. Vulcanizates based on fresh natural rubber latex- dual filler masterbatches containing a blend of carbon black and silica prepared by the modified coagulation process shows very good mechanical and dynamic properties that could be correlated to a low rolling resistance. The carbon black/silica/nanoclay tri-filler - fresh natural rubber latex masterbatch based vulcanizates show improved mechanical properties as the proportion of nanoclay increased up to 5 phr. The fresh natural rubber latex based carbon black-silica masterbatch/ polybutadiene blend vulcanizates show superior mechanical and dynamic properties as compared to the equivalent compound vulcanizates prepared from the dry natural rubber-filler (conventional dry mix)/polybutadiene blends
Resumo:
Das Gewindefurchen ist ein spanloses Fertigungsverfahren zur Herstellung von Innengewinden. Es bietet wesentliche Vorteile gegenüber der spanenden Innengewindeherstellung, wie z.B. keine Notwendigkeit zur Spanentsorgung, höhere Festigkeit der Gewindeflanken und eine erhöhte Prozessgeschwindigkeit. Um die Vorteile des Verfahrens unter wirtschaftlichen und technologischen Aspekten besser auszunutzen, bietet die Weiterentwicklung der Werkzeuggeometrie sowohl im makroskopischen als auch im mikroskopischen Bereich ein enormes Potential, welches nicht nur bezüglich der Standzeit bzw. Standmenge und Prozessgeschwindigkeit, sondern auch hinsichtlich der Qualität der erzeugten Gewinde erschlossen werden sollte. Durch die empirische Untersuchung der technischen und physikalischen Eigenschaften am Gewindefurcher sollen der Anformbereich und die Formkeilgeometrie in Abhängigkeit verschiedener Prozessparameter und Werkstoffe verbessert werden, um optimale Bearbeitungsergebnisse hinsichtlich der hergestellten Gewindefurchen und des auftretenden Verschleißes am Gewindefurcher bzw. Formkeils zu erreichen. Die Basis dieser Untersuchungen bildet ein neuartiger Modellversuch, bei dem modifizierte Gewindefurcher verwendet werden, die derart umgestaltet sind, dass von einem üblichen Gewindefurcher durch Umschleifen nur noch ein einzelner Gewindegang am Werkzeug verbleibt. Dadurch ist es möglich, in einer vergrößerten Vorbohrung mit einem Formkeil die einzelnen Umformstufen beim Gewindefurchen separat zu fertigen, die auftretenden Prozesskräfte während des Eingriffs in das Werkstück zu messen und das Bearbeitungsergebnis im Werkstück und den Verschleiß am Formkeil zu bewerten. Weiterhin wird eine rein theoretische Methode beschrieben, mit der die Berechnung der Umformkraft und darauf basierend der Furchmomente am Formkeil bzw. dem ganzen Gewindefurcher möglich ist. Durch die Kenntnis der berechneten Kräfte und Momente am einzelnen Formkeil bzw. dem Gewindefurcher kann bereits in der Konzeptionsphase eines Gewindefurchers eine Anpassung des Werkszeuges an die jeweiligen Bearbeitungsanforderungen durchgeführt werden, wodurch der Entwurf von Gewindefurchern wesentlich wirtschaftlicher realisierbar ist, als durch rein empirische Herangehensweisen.
Resumo:
In der Praxis kommt es bei der spanenden Bearbeitung immer wieder zu großen Standwegunterschieden identischer Werkzeuge bei vordergründig identischen Bearbeitungsrandbedingungen. Insbesondere bei Fertigungsschritten, die das Bohren als Vorbearbeitung erfordern, kommt es gelegentlich zu atypischen Verschleißerscheinungen, die auf das Entstehen einer Neuhärtezone an der Werkstückoberfläche beim Bohren zurückgeführt werden. Grundsätzlich sind Randzonenveränderungen eine Folge der mechanischen und thermischen Beanspruchung bei der Bearbeitung. Beim Eindringen des Schneidkeils kommt es zu Kornverzerrungen, welche die Werkstückhärte bis in eine Tiefe von 40 bis 80 µm erhöhen können. Überdies wird die Randzone des Werkstücks durch den Bearbeitungsvorgang und den Spantransport erhitzt und durch den Kühlschmierstoff bzw. die so genannte Selbstabschreckung im Anschluss sehr schnell abgekühlt. So kann es in Abhängigkeit der Randbedingungen zu Gefügeänderungen mit härtesteigernder (Sekundärabschreckung) oder härtemindernder (Anlasseffekte) Wirkung kommen. Nicht zuletzt beeinflussen beide Beanspruchungsarten auch das Ausmaß der Eigenspannungen in der Werkstückoberfläche. In dieser Arbeit werden die beim Kernlochbohren erzeugten Randzonenveränderungen sowie die Standzeit von Folgebearbeitungswerkzeugen, wie Gewindebohrern und Gewindeformern, und deren Abhängigkeit vom Verschleißzustand des Kernlochbohrers untersucht. Weiterhin werden mit Hilfe einer Energiebilanz die Anteile herausgefiltert, die primär die Eigenschaften der Bohrungsrandzone beeinflussen. Dies geschieht mit Hilfe einer mathematischen Modellierung des Bohrprozesses, in der die Einflüsse der Schneidkantengeometrie, der Schneidkantenverrundung, der Schneidkantenfase sowie des Freiflächenverschleißes berücksichtigt werden.
Resumo:
Spinnenseide gehört zu den stabilsten bekannten Polymerverbindungen. Spinnfäden können bis auf das Dreifache ihrer ursprünglichen Länge gedehnt werden, bevor sie reißen, und dabei mit rund 160 MJ/m³ mehr als dreimal soviel Energie absorbieren wie die stärkste synthetisch hergestellte Faser Kevlar (50 MJ/m³). Dabei weisen Spinnfäden mit 2 bis 5 Mikrometer nur ein Zehntel des Durchmessers eines menschlichen Haares auf. Das präzise, berührungslose Bearbeiten von Spinnenseide ist für verschiedene technische Anwendungen interessant, insbesondere wenn dabei ihre außergewöhnlichen Eigenschaften erhalten bleiben. Könnten die von Natur aus dünnen Seidenfäden gezielt in ihrem Durchmesser verringert werden, so wären sie unter anderem in der Mikroelektronik einzusetzen. Hier könnten sie als Trägermaterial für eine dünne, elektrisch leitfähige Schicht fungieren. Man erhielte Nanodrähte, die auch in mechanisch besonders belasteten Mikroelektronikbauteilen (MEMS) Verwendung finden könnten. In dieser Arbeit wird die Verwendung der laserinduzierten Ablation zur gezielten Bearbeitung von Haltefäden der Schwarzen Witwe (Latrodectus hesperus) beschrieben. Eingesetzt wurde ein VUV-Excimerlaser vom Typ LPF 205 (Lambda-Physik, Göttingen) mit einer Wellenlänge von 157 nm und einer Pulsdauer von 18 ns. Eine berührungslose Laserbearbeitung bei 157 nm erlaubt einen effizienten und präzisen Abtrag von Material durch Ablation aufgrund der geringen optischen Eindringtiefe von unter 100 nm oberhalb einer Schwellenfluenz (Energie/Fläche) von Φth=29 mJ/cm², ohne dabei das umgebende Material thermisch zu beeinträchtigen. Parallel zur Ablation setzt allerdings eine wellenförmige Oberflächenstrukturierung auf der Faseroberfläche ein, wodurch die mechanische Belastbarkeit der Faser entscheidend geschwächt wird. Die Ursache hierfür liegt im Abbau materialbedingter Spannungsfelder („stress release“) innerhalb einer durch das Laserlicht induzierten dünnen Schmelzschicht. Im Rahmen dieser Arbeit ist es nun gelungen, diese Strukturen durch einen anschließenden Glättungsprozeß zu entfernen. Dabei wird auf der bestrahlten Oberfläche mittels Laserlichts eine glatte Ablation erzielt. Mit feinerer Abstufung dieser Prozeßschritte konnte der Durchmesser des verwendeten Spinnenseidefadens zum Teil um 70 Prozent bis auf ca. 750 nm verringert werden. Durch Zugfestigkeitsexperimente wurde belegt, daß die mechanischen Eigenschaften der so bearbeiteten Spinnenseide weitgehend erhalten bleiben. Die im Rahmen dieser Arbeit angewandte Methode erlaubt somit eine präzise Laserablation von Spinnenseide und ähnlichen hochabsorbierenden Materialien, ohne deren Kernsubstanz in ihrer Beschaffenheit zu verändern.
Resumo:
Die technischen Oberflächen werden oft als Bauteilversagungsorte definiert. Deswegen ist eine optimale Ausnutzung der Werkstoffeigenschaften ohne mechanische Oberflächenbehandlungsverfahren nicht mehr wegzudenken. Mechanische Randschichtoptimierungsverfahren sind vergleichsweise einfach, Kosten sparend und hocheffektiv. Gerade das Festwalzen wird wegen seiner günstigen Auswirkungen wie die exzellente Oberflächengüte, die hohen Druckeigenspannungen sowie die hohe Oberflächenverfestigung zunehmend an Bedeutung gewinnen. Außerdem wird durch das Festwalzen in einigen Legierungen eine nanokristalline Oberflächenschicht gebildet. Diese brillanten Eigenschaften führen nach einer mechanischen Oberflächenbehandlung zur Erhöhung des Werkstoffwiderstandes unter anderem gegen Verschleiß, Spannungsrisskorrosion und insbesondere zur Steigerung der Schwingfestigkeit. Ein etabliertes Beispiel zur Steigerung der Schwingfestigkeit ist das Festwalzen von Achsen und Kurbelwellen. Auch solche komplexen Komponenten wie Turbinenschaufeln werden zur Schwingfestigkeitssteigerung laserschockverfestigt oder festgewalzt. Die Laserschockverfestigung ist ein relativ neues Verfahren auf dem Gebiet der mechanischen Oberflächenbehandlungen, das z.B. bereits in der Flugturbinenindustrie Anwendung fand und zur Schwingfestigkeitsverbesserung beiträgt. Das Verfahrensprinzip besteht darin, dass ein kurzer Laserimpuls auf die zu verfestigende, mit einer Opferschicht versehene Materialoberfläche fokussiert wird. Das Auftreffen des Laserimpulses auf der verwendeten Opferschicht erzeugt ein expandierendes Plasma, welches eine Schockwelle in randnahen Werkstoffbereichen erzeugt, die elastisch-plastische Verformungen bewirkt. Eine konsekutive Wärmebehandlung, Auslagerung nach dem Festwalzen, nutzt den statischen Reckalterungseffekt. Hierdurch werden die Mikrostrukturen stabilisiert. Die Änderung der Mikrostrukturen kann jedoch zu einer beträchtlichen Abnahme der mittels Festwalzen entstandenen Druckeigenspannungen und der Kaltverfestigungsrate führen. Das Festwalzen bei erhöhter Temperatur bietet eine weitere Möglichkeit die Schwingfestigkeit von metallischen Werkstoffen zu verbessern. Die Mikrostruktur wird durch den Effekt der dynamischen Reckalterung stabilisiert. Die Effekte beim Festwalzen bei erhöhten Temperaturen sind ähnlich dem Warmstrahlen. Das Festwalzen erzeugt Oberflächenschichten mit sehr stabilen Kaltverfestigungen und Druckeigenspannungen. Diese Strukturen haben viele Vorteile im Vergleich zu den durch rein mechanische Verfahren erzeugten Strukturen in Bezug auf die Schwingfestigkeit und die Stabilität der Eigenspannungen. Die Aufgabe der vorliegenden Dissertation war es, Verfahren zur Verbesserung der Schwingfestigkeit im Temperaturbereich zwischen Raumtemperatur und 600 °C zu erforschen. Begleitende mikrostrukturelle sowie röntgenographische Untersuchungen sollen zum Verständnis der Ursachen der Verbesserung beitragen. Für diese Arbeit wurde der in der Praxis häufig verwendete Modellwerkstoff X5CrNi18-10 ausgewählt. Als Randschichtverfestigungsverfahren wurden das Festwalzen, eine Kombination der mechanischen und thermischen, thermomechanischen Verfahren auf der Basis des Festwalzens und eine Laserschockverfestigung verwendet.
Resumo:
The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.
Resumo:
This thesis in Thermal Flow Drilling and Flowtap in thin metal sheet and pipes of copper and copper alloys had as objectives to know the comportment of copper and copper alloys sheet metal during the Thermal Flow Drill processes with normal tools, to know the best Speed and Feed machine data for the best bushing quality, to known the best Speed for Form Tapping processes and to know the best bush long in pure copper pipes for water solar interchange equipment. Thermal Flow Drilling (TFD) and Form Tapping (FT) is one of the research lines of the Institute of Production and Logistics (IPL) at University of Kassel. At December 1995, a work meeting of IPL, Santa Catarina University, Brazil, Buenos Aires University, Argentine, Tarapacá University (UTA), Chile members and the CEO of Flowdrill B.V. was held in Brazil. The group decided that the Manufacturing Laboratory (ML) of UTA would work with pure copper and brass alloys sheet metal and pure copper pipes in order to develop a water interchange solar heater. The Flowdrill BV Company sent tools to Tarapacá University in 1996. In 1999 IPL and the ML carried out an ALECHILE research project promoted by the DAAD and CONICyT in copper sheet metal and copper pipes and sheet metal a-brass alloys. The normal tools are lobed, conical tungsten carbide tool. When rotated at high speed and pressed with high axial force into sheet metal or thin walled tube generated heat softens the metal and allows the drill to feed forward produce a hole and simultaneously form a bushing from the displacement material. In the market exist many features but in this thesis is used short and longs normal tools of TFD. For reach the objectives it was takes as references four qualities of the frayed end bushing, where the best one is the quality class I. It was used pure copper and a-brass alloys sheet metals, with different thickness. It was used different TFD drills diameter for four thread type, from M-5 to M10. Similar to the Aluminium sheet metals studies it was used the predrilling processes with HSS drills around 30% of the TFD diameter (1,5 – 3,0 mm D). In the next step is used only 2,0 mm thick metal sheet, and 9,2 mm TFD diameter for M-10 thread. For the case of pure commercial copper pipes is used for ¾” inch diameter and 12, 8 mm (3/8”) TFD drill for holes for 3/8” pipes and different normal HSS drills for predrilling processes. The chemical sheet metal characteristics were takes as reference for the material behaviour. The Chilean pure copper have 99,35% of Cu and 0,163% of Zinc and the Chilean a-brass alloys have 75,6% of Cu and 24,0% of Zinc. It is used two German a-brass alloys; Nº1 have 61,6% of Cu, 36,03 % of Zinc and 2,2% of Pb and the German a-brass alloys Nº2 have 63,1% of Cu, 36,7% of Zinc and 0% of Pb. The equipments used were a HAAS CNC milling machine centre, a Kistler dynamometer, PC Pentium II, Acquisition card, TESTPOINT and XAct software, 3D measurement machine, micro hardness, universal test machine, and metallographic microscope. During the test is obtained the feed force and momentum curves that shows the material behaviour with TFD processes. In general it is take three phases. It was possible obtain the best machining data for the different sheet of copper and a-brass alloys thick of Chilean materials and bush quality class I. In the case of a-brass alloys, the chemical components and the TFD processes temperature have big influence. The temperature reach to 400º Celsius during the TFD processes and the a-brass alloys have some percents of Zinc the bush quality is class I. But when the a-brass alloys have some percents of Lead who have 200º C melting point is not possible to obtain a bush, because the Lead gasify and the metallographic net broke. During the TFD processes the recrystallization structures occur around the Copper and a-brass alloy bush, who gives more hardness in these zones. When the threads were produce with Form Tapping processes with Flowtap tools, this hardness amount gives a high limit load of the thread when hey are tested in a special support that was developed for it. For eliminated the predrilling processes with normal HSS drills it was developed a compound tool. With this new tool it was possible obtain the best machining data for quality class I bush. For the copper pipes it is made bush without predrilling and the quality class IV was obtained. When it is was used predrilling processes, quality classes I bush were obtained. Then with different HSS drill diameter were obtained different long bush, where were soldering with four types soldering materials between pipes with 3/8” in a big one as ¾”. Those soldering unions were tested by traction test and all the 3/8” pipes broken, and the soldering zone doesn’t have any problem. Finally were developed different solar water interchange heaters and tested. As conclusions, the present Thesis shows that the Thermal Flow Drilling in thinner metal sheets of cooper and cooper alloys needs a predrilling process for frayed end quality class I bushings, similar to thinner sheets of aluminium bushes. The compound tool developed could obtain quality class I bushings and excludes predrilling processes. The bush recrystalization, product of the friction between the tool and the material, the hardness grows and it is advantageous for the Form Tapping. The methodology developed for commercial copper pipes permits to built water solar interchange heaters.
Resumo:
In dieser Arbeit wurde ein gemischt-ganzzahliges lineares Einsatzoptimierungsmodell für Kraftwerke und Speicher aufgebaut und für die Untersuchung der Energieversorgung Deutschlands im Jahre 2050 gemäß den Leitstudie-Szenarien 2050 A und 2050 C ([Nitsch und Andere, 2012]) verwendet, in denen erneuerbare Energien einen Anteil von über 85 % an der Stromerzeugung haben und die Wind- und Solarenergie starke Schwankungen der durch steuerbare Kraftwerke und Speicher zu deckenden residualen Stromnachfrage (Residuallast) verursachen. In Szenario 2050 A sind 67 TWh Wasserstoff, die elektrolytisch aus erneuerbarem Strom zu erzeugen sind, für den Verkehr vorgesehen. In Szenario 2050 C ist kein Wasserstoff für den Verkehr vorgesehen und die effizientere Elektromobilität hat einen Anteil von 100% am Individualverkehr. Daher wird weniger erneuerbarer Strom zur Erreichung desselben erneuerbaren Anteils im Verkehrssektor benötigt. Da desweiteren Elektrofahrzeuge Lastmanagementpotentiale bieten, weisen die Residuallasten der Szenarien eine unterschiedliche zeitliche Charakteristik und Jahressumme auf. Der Schwerpunkt der Betrachtung lag auf der Ermittlung der Auslastung und Fahrweise des in den Szenarien unterstellten ’Kraftwerks’-parks bestehend aus Kraftwerken zur reinen Stromerzeugung, Kraft-Wärme-Kopplungskraftwerken, die mit Wärmespeichern, elektrischen Heizstäben und Gas-Backupkesseln ausgestattet sind, Stromspeichern und Wärmepumpen, die durch Wärmespeicher zum Lastmanagment eingesetzt werden können. Der Fahrplan dieser Komponenten wurde auf minimale variable Gesamtkosten der Strom- und Wärmeerzeugung über einen Planungshorizont von jeweils vier Tagen hin optimiert. Das Optimierungsproblem wurde mit dem linearen Branch-and-Cut-Solver der software CPLEX gelöst. Mittels sogenannter rollierender Planung wurde durch Zusammensetzen der Planungsergebnisse für überlappende Planungsperioden der Kraftwerks- und Speichereinsatz für die kompletten Szenariojahre erhalten. Es wurde gezeigt, dass der KWK-Anteil an der Wärmelastdeckung gering ist. Dies wurde begründet durch die zeitliche Struktur der Stromresiduallast, die wärmeseitige Dimensionierung der Anlagen und die Tatsache, dass nur eine kurzfristige Speicherung von Wärme vorgesehen war. Die wärmeseitige Dimensionierung der KWK stellte eine Begrenzung des Deckungsanteils dar, da im Winter bei hoher Stromresiduallast nur wenig freie Leistung zur Beladung der Speicher zur Verfügung stand. In den Berechnungen für das Szenario 2050 A und C lag der mittlere Deckungsanteil der KWK an der Wärmenachfrage von ca. 100 TWh_th bei 40 bzw. 60 %, obwohl die Auslegung der KWK einen theoretischen Anteil von über 97 % an der Wärmelastdeckung erlaubt hätte, gäbe es die Beschränkungen durch die Stromseite nicht. Desweiteren wurde die CO2-Vermeidungswirkung der KWK-Wärmespeicher und des Lastmanagements mit Wärmepumpen untersucht. In Szenario 2050 A ergab sich keine signifikante CO2-Vermeidungswirkung der KWK-Wärmespeicher, in Szenario 2050 C hingegen ergab sich eine geringe aber signifikante CO2-Einsparung in Höhe von 1,6 % der Gesamtemissionen der Stromerzeugung und KWK-gebundenen Wärmeversorgung. Das Lastmanagement mit Wärmepumpen vermied Emissionen von 110 Tausend Tonnen CO2 (0,4 % der Gesamtemissionen) in Szenario A und 213 Tausend Tonnen in Szenario C (0,8 % der Gesamtemissionen). Es wurden darüber hinaus Betrachtungen zur Konkurrenz zwischen solarthermischer Nahwärme und KWK bei Einspeisung in dieselben Wärmenetze vorgenommen. Eine weitere Einschränkung der KWK-Erzeugung durch den Einspeisevorrang der Solarthermie wurde festgestellt. Ferner wurde eine untere Grenze von 6,5 bzw. 8,8 TWh_th für die in den Szenarien mindestens benötigte Wasserstoff-Speicherkapazität ermittelt. Die Ergebnisse dieser Arbeit legen nahe, das technisch-ökonomische Potential von Langzeitwärmespeichern für eine bessere Integration von KWK ins System zu ermitteln bzw. generell nach geeigneteren Wärmesektorszenarien zu suchen, da deutlich wurde, dass für die öffentliche Wärmeversorgung die KWK in Kombination mit Kurzzeitwärmespeicherung, Gaskesseln und elektrischen Heizern keine sehr effektive CO2 -Reduktion in den Szenarien erreicht. Es sollte dabei z.B. untersucht werden, ob ein multivalentes System aus KWK, Wärmespeichern und Wärmepumpen eine ökonomisch darstellbare Alternative sein könnte und im Anschluss eine Betrachtung der optimalen Anteile von KWK, Wärmepumpen und Solarthermie im Wärmemarkt vorgenommen werden.
Resumo:
A key capability of data-race detectors is to determine whether one thread executes logically in parallel with another or whether the threads must operate in series. This paper provides two algorithms, one serial and one parallel, to maintain series-parallel (SP) relationships "on the fly" for fork-join multithreaded programs. The serial SP-order algorithm runs in O(1) amortized time per operation. In contrast, the previously best algorithm requires a time per operation that is proportional to Tarjan’s functional inverse of Ackermann’s function. SP-order employs an order-maintenance data structure that allows us to implement a more efficient "English-Hebrew" labeling scheme than was used in earlier race detectors, which immediately yields an improved determinacy-race detector. In particular, any fork-join program running in T₁ time on a single processor can be checked on the fly for determinacy races in O(T₁) time. Corresponding improved bounds can also be obtained for more sophisticated data-race detectors, for example, those that use locks. By combining SP-order with Feng and Leiserson’s serial SP-bags algorithm, we obtain a parallel SP-maintenance algorithm, called SP-hybrid. Suppose that a fork-join program has n threads, T₁ work, and a critical-path length of T[subscript â]. When executed on P processors, we prove that SP-hybrid runs in O((T₁/P + PT[subscript â]) lg n) expected time. To understand this bound, consider that the original program obtains linear speed-up over a 1-processor execution when P = O(T₁/T[subscript â]). In contrast, SP-hybrid obtains linear speed-up when P = O(√T₁/T[subscript â]), but the work is increased by a factor of O(lg n).
Resumo:
At the time of a customer order, the e-tailer assigns the order to one or more of its order fulfillment centers, and/or to drop shippers, so as to minimize procurement and transportation costs, based on the available current information. However this assignment is necessarily myopic as it cannot account for all future events, such as subsequent customer orders or inventory replenishments. We examine the potential benefits from periodically re-evaluating these real-time order-assignment decisions. We construct near-optimal heuristics for the re-assignment for a large set of customer orders with the objective to minimize the total number of shipments. We investigate how best to implement these heuristics for a rolling horizon, and discuss the effect of demand correlation, customer order size, and the number of customer orders on the nature of the heuristics. Finally, we present potential saving opportunities by testing the heuristics on sets of order data from a major e-tailer.
Resumo:
This paper presents the design and implementation of a mission control system (MCS) for an autonomous underwater vehicle (AUV) based on Petri nets. In the proposed approach the Petri nets are used to specify as well as to execute the desired autonomous vehicle mission. The mission is easily described using an imperative programming language called mission control language (MCL) that formally describes the mission execution thread. A mission control language compiler (MCL-C) able to automatically translate the MCL into a Petri net is described and a real-time Petri net player that allows to execute the resulting Petri net onboard an AUV are also presented
Resumo:
This 6-minute video is the fifth in a series introducing the new features of Blackboard 9. It shows the new default course menu items and shows how to adapt these after rolling over an existing course.
Resumo:
This article is the result of a work of research conducted on the peri-urban interface of Popayan to detect its potential, restrictions and pathologies regarding the urbanization process. The Crucero Puelenje village, taken as a case study, is located in the south of the town center and it is recognized as one of the agricultural pantries of the city.The territory reading was focused on the macro-landscape as a result of the relationship between social groups and their physical and natural environment. Hence, this research process articulated technical and participatory methodologies that allowed determining the socio-cultural, environmental, physical-spatial, economic and political-administrative particularities of the territory with respect to urbanization and local development. Thus, the participatory component with the Crucero Puelenje community, both in the participatory workshops and in the census, gave feedback to the technical component considered as the guiding thread.This research found knowledge applicable to spatial planning and regional development from the study of the socio-environmental and territorial transformations impact caused by the urban sprawl of Popayán, and at the same time, it offered the Crucero Puelenje community the possibility of interpreting its territory and gaining insights about its planning.
Resumo:
El presente estudio es de tipo analítico, cohorte retrospectiva, tiene como objeto estudiar un modelo de prestación de servicios de salud bajo el concepto de red integrada, conformada por las clínicas privadas de segundo y tercer nivel de complejidad del municipio de Sogamoso (Boyacá). Se analizó el período comprendido entre los años 2012 a 2014, donde se puede evidenciar la implementación y puesta en marcha del modelo. En el mes de agosto del año 2012, la estrategia de asociatividad la adelantaron las tres instituciones de manera libre y autónoma, utilizando como guía la metodología propuesta por la Cepal en el año 2010; las diferencias entre esta metodología y el modelo utilizado se deben a las particularidades de las clínicas y del contexto en el que se desarrolló. Este modelo de atención surgió de la necesidad de prestar los servicios de salud ofertados por las clínicas, acorde con su capacidad instalada, al total de la población de la Nueva EPS en Sogamoso, que en ese momento coyuntural no se estaba cumpliendo en el municipio, y ninguna de las instituciones tenía la infraestructura individual para atender a toda su población. El resultado de la asociación de las tres clínicas se logró gracias a un grado de confianza previo entre los directivos de las instituciones y posterior a varias reuniones, en las que se tomó la determinación de trabajar con el modelo de Unión Temporal, ya que no son una persona jurídica diferente a las que la conforman Se demuestra el impacto de este modelo asociativo de cada una de las organizaciones que la componen evaluando cuatro ámbitos como la capacidad de aprendizaje, capacidad de gestión estratégica, economía de escala y poder de negociación y externalidades. Para la recolección de la información se utilizaron las bases de datos de las instituciones hospitalarias con la información de los indicadores de oportunidad, así como el incremento de la facturación y del recaudo antes y después de la formación de la Unión Temporal; adicionalmente se realizaron encuestas a los directores de las clínicas como fuente de información para desarrollo de nuevos productos, reducción de costos, ampliación de la oferta hospitalaria, establecimientos de alianza, puesta en marcha de servicios comunes y apertura de nuevos mercados. Sumado a lo anterior, se realizó una encuesta adicional a los usuarios del nuevo producto desarrollado. Como resultado de este estudio se encuentra beneficio en todos los ámbitos evaluados para las instituciones que interactúan bajo este modelo y se espera que obtengan los mismos beneficios que los demás actores participantes en él, como las EAPB, los cuales no hacen parte del presente estudio. En Colombia no se observa la existencia de un modelo similar en sistema de salud, a pesar del leve intento de la Ley 1438 del 2011 por iniciar la conformación de redes; por esta razón se puede decir que este estudio marca un derrotero para que las organizaciones de salud tengan un modelo de articulación ante la falta de desarrollos de esquemas de red y por tratarse de un modelo con ausencia de reglamentación.