998 resultados para scales (weighing devices)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The rapid growth of the optical communication branches and the enormous demand for more bandwidth require novel networks such as dense wavelength division multiplexing (DWDM). These networks enable higher bitrate transmission using the existing optical fibers. Micromechanically tunable optical microcavity devices like VCSELs, Fabry-Pérot filters and photodetectors are core components of these novel DWDM systems. Several air-gap based tunable devices were successfully implemented in the last years. Even though these concepts are very promising, two main disadvantages are still remaining. On the one hand, the high fabrication and integration cost and on the other hand the undesired adverse buckling of the suspended membranes. This thesis addresses these two problems and consists of two main parts: • PECVD dielectric material investigation and stress control resulting in membranes shape engineering. • Implementation and characterization of novel tunable optical devices with tailored shapes of the suspended membranes. For this purposes, low-cost PECVD technology is investigated and developed in detail. The macro- and microstress of silicon nitride and silicon dioxide are controlled over a wide range. Furthermore, the effect of stress on the optical and mechanical properties of the suspended membranes and on the microcavities is evaluated. Various membrane shapes (concave, convex and planar) with several radii of curvature are fabricated. Using this resonator shape engineering, microcavity devices such as non tunable and tunable Fabry-Pérot filters, VCSELs and PIN photodetectors are succesfully implemented. The fabricated Fabry-Pérot filters cover a spectral range of over 200nm and show resonance linewidths down to 1.5nm. By varying the stress distribution across the vertical direction within a DBR, the shape and the radius of curvature of the top membrane are explicitely tailored. By adjusting the incoming light beam waist to the curvature, the fundamental resonant mode is supported and the higher order ones are suppressed. For instance, a tunable VCSEL with 26 nm tuning range, 400µW maximal output power, 47nm free spectral range and over 57dB side mode suppresion ratio (SMSR) is demonstrated. Other technologies, such as introducing light emitting organic materials in microcavities are also investigated.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diese Arbeit umfaßt das elektromechanische Design und die Designoptimierung von weit durchstimmbaren optischen multimembranbasierten Bauelementen, mit vertikal orientierten Kavitäten, basierend auf der Finiten Element Methode (FEM). Ein multimembran InP/Luft Fabry-Pérot optischer Filter wird dargestellt und umfassend analysiert. In dieser Arbeit wird ein systematisches strukturelles Designverfahren dargestellt. Genaue analytische elektromechanischer Modelle für die Bauelemente sind abgeleitet worden. Diese können unschätzbare Werkzeuge sein, um am Anfang der Designphase schnell einen klaren Einblick zur Verfügung zu stellen. Mittels des FEM Programms ist der durch die nicht-lineare Verspannung hervorgerufene versteifende Effekt nachgeforscht und sein Effekt auf die Verlängerung der mechanischen Durchstimmungsstrecke der Bauelemente demonstriert worden. Interessant war auch die Beobachtung, dass die normierte Relation zwischen Ablenkung und Spannung ein unveränderliches Profil hat. Die Deformation der Membranflächen der in dieser Arbeit dargestellten Bauelementformen erwies sich als ein unerwünschter, jedoch manchmal unvermeidbarer Effekt. Es zeigt sich aber, dass die Wahl der Größe der strukturellen Dimensionen den Grad der Membrandeformation im Falle der Aktuation beeinflusst. Diese Arbeit stellt ein elektromechanisches in FEMLAB implementierte quasi-3D Modell, das allgemein für die Modellierung dünner Strukturen angewendet werden kann, dar; und zwar indem man diese als 2D-Objekte betrachtet und die dritte Dimension als eine konstante Größe (z.B. die Schichtdicke) oder eine Größe, welche eine mathematische Funktion ist, annimmt. Diese Annahme verringert drastisch die Berechnungszeit sowie den erforderlichen Arbeitsspeicherbedarf. Weiter ist es für die Nachforschung des Effekts der Skalierung der durchstimmbaren Bauelemente verwendet worden. Eine neuartige Skalierungstechnik wurde abgeleitet und verwendet. Die Ergebnisse belegen, dass das daraus resultierende, skalierte Bauelement fast genau die gleiche mechanische Durchstimmung wie das unskalierte zeigt. Die Einbeziehung des Einflusses von axialen Verspannungen und Gradientenverspannungen in die Berechnungen erforderte die Änderung der Standardimplementierung des 3D Mechanikberechnungsmodus, der mit der benutzten FEM Software geliefert wurde. Die Ergebnisse dieser Studie zeigen einen großen Einfluss der Verspannung auf die Durchstimmungseigenschaften der untersuchten Bauelemente. Ferner stimmten die Ergebnisse der theoretischen Modellrechnung mit den experimentellen Resultaten sehr gut überein.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Formal Concept Analysis allows to derive conceptual hierarchies from data tables. Formal Concept Analysis is applied in various domains, e.g., data analysis, information retrieval, and knowledge discovery in databases. In order to deal with increasing sizes of the data tables (and to allow more complex data structures than just binary attributes), conceputal scales habe been developed. They are considered as metadata which structure the data conceptually. But in large applications, the number of conceptual scales increases as well. Techniques are needed which support the navigation of the user also on this meta-level of conceptual scales. In this paper, we attack this problem by extending the set of scales by hierarchically ordered higher level scales and by introducing a visualization technique called nested scaling. We extend the two-level architecture of Formal Concept Analysis (the data table plus one level of conceptual scales) to many-level architecture with a cascading system of conceptual scales. The approach also allows to use representation techniques of Formal Concept Analysis for the visualization of thesauri and ontologies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die thermische Verarbeitung von Lebensmitteln beeinflusst deren Qualität und ernährungsphysiologischen Eigenschaften. Im Haushalt ist die Überwachung der Temperatur innerhalb des Lebensmittels sehr schwierig. Zudem ist das Wissen über optimale Temperatur- und Zeitparameter für die verschiedenen Speisen oft unzureichend. Die optimale Steuerung der thermischen Zubereitung ist maßgeblich abhängig von der Art des Lebensmittels und der äußeren und inneren Temperatureinwirkung während des Garvorgangs. Das Ziel der Arbeiten war die Entwicklung eines automatischen Backofens, der in der Lage ist, die Art des Lebensmittels zu erkennen und die Temperatur im Inneren des Lebensmittels während des Backens zu errechnen. Die für die Temperaturberechnung benötigten Daten wurden mit mehreren Sensoren erfasst. Hierzu kam ein Infrarotthermometer, ein Infrarotabstandssensor, eine Kamera, ein Temperatursensor und ein Lambdasonde innerhalb des Ofens zum Einsatz. Ferner wurden eine Wägezelle, ein Strom- sowie Spannungs-Sensor und ein Temperatursensor außerhalb des Ofens genutzt. Die während der Aufheizphase aufgenommen Datensätze ermöglichten das Training mehrerer künstlicher neuronaler Netze, die die verschiedenen Lebensmittel in die entsprechenden Kategorien einordnen konnten, um so das optimale Backprogram auszuwählen. Zur Abschätzung der thermische Diffusivität der Nahrung, die von der Zusammensetzung (Kohlenhydrate, Fett, Protein, Wasser) abhängt, wurden mehrere künstliche neuronale Netze trainiert. Mit Ausnahme des Fettanteils der Lebensmittel konnten alle Komponenten durch verschiedene KNNs mit einem Maximum von 8 versteckten Neuronen ausreichend genau abgeschätzt werden um auf deren Grundlage die Temperatur im inneren des Lebensmittels zu berechnen. Die durchgeführte Arbeit zeigt, dass mit Hilfe verschiedenster Sensoren zur direkten beziehungsweise indirekten Messung der äußeren Eigenschaften der Lebensmittel sowie KNNs für die Kategorisierung und Abschätzung der Lebensmittelzusammensetzung die automatische Erkennung und Berechnung der inneren Temperatur von verschiedensten Lebensmitteln möglich ist.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The main objective of this thesis was to determine the potential impact of heat stress (HS) on physiological traits of lactating cows and semen quality of bulls kept in a temperate climate. The thesis is comprised of three studies. An innovative statistical modeling aspect common to all three studies was the application of random regression methodology (RRM) to study the phenotypic and genetic trajectory of traits in dependency of a continuous temperature humidity index (THI). In the first study, semen quality and quantity traits of 562 Holstein sires kept on an AI station in northwestern Germany were analyzed in the course of THI calculated from data obtained from the nearest weather station. Heat stress was identified based on a decline in semen quality and quantity parameters. The identified general HS threshold (THI = 60) and the thermoneutal zone (THI in the range from 50 to 60) for semen production were lower than detected in studies conducted in tropical and subtropical climates. Even though adult bulls were characterized by higher semen productivity compared to younger bulls, they responded with a stronger semen production loss during harsh environments. Heritabilities (low to moderate range) and additive genetic variances of semen characteristics varied with different levels of THI. Also, based on genetic correlations genotype, by environment interactions were detected. Taken together, these findings suggest the application of specific selection strategies for specific climate conditions. In the second study, the effect of the continuous environmental descriptor THI as measured inside the barns on rectal temperatures (RT), skin temperatures (ST), vaginal temperatures (VT), respiration rates (RR), and pulse rate (PR) of lactating Holstein Friesian (HF) and dual-purpose German black pied cattle (DSN) was analyzed. Increasing HS from THI 65 (threshold) to THI 86 (maximal THI) resulted in an increase of RT by 0.6 °C (DSN) and 1 °C (HF), ST by 3.5 °C (HF) and 8 °C (DSN), VT by 0.3 °C (DSN), and RR by 47 breaths / minute (DSN), and decreased PR by 7 beats / minute (DSN). The undesired effects of rising THI on physiological traits were most pronounced for cows with high levels of milk yield and milk constituents, cows in early days in milk and later parities, and during summer seasons in the year 2014. In the third study of this dissertation, the genetic components of the cow’s physiological responses to HS were investigated. Heat stress was deduced from indoor THI measurements, and physiological traits were recorded on native DSN cows and their genetically upgraded crosses with Holstein Friesian sires in two experimental herds from pasture-based production systems reflecting a harsh environment of the northern part of Germany. Although heritabilities were in a low range (from 0.018 to 0.072), alterations of heritabilities, repeatabilities, and genetic components in the course of THI justify the implementation of genetic evaluations including heat stress components. However, low repeatabilities indicate the necessity of using repeated records for measuring physiological traits in German cattle. Moderate EBV correlations between different trait combinations indicate the potential of selection for one trait to simultaneously improve the other physiological attributes. In conclusion, bulls of AI centers and lactating cows suffer from HS during more extreme weather conditions also in the temperate climate of Northern Germany. Monitoring physiological traits during warm and humid conditions could provide precious information for detection of appropriate times for implementation of cooling systems and changes in feeding and management strategies. Subsequently, the inclusion of these physiological traits with THI specific breeding values into overall breeding goals could contribute to improving cattle adaptability by selecting the optimal animal for extreme hot and humid conditions. Furthermore, the recording of meteorological data in close distance to the cow and visualizing the surface body temperature by infrared thermography techniques might be helpful for recognizing heat tolerance and adaptability in cattle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Polydimethylsiloxane (PDMS) is the elastomer of choice to create a variety of microfluidic devices by soft lithography techniques (eg., [1], [2], [3], [4]). Accurate and reliable design, manufacture, and operation of microfluidic devices made from PDMS, require a detailed characterization of the deformation and failure behavior of the material. This paper discusses progress in a recently-initiated research project towards this goal. We have conducted large-deformation tension and compression experiments on traditional macroscale specimens, as well as microscale tension experiments on thin-film (≈ 50µm thickness) specimens of PDMS with varying ratios of monomer:curing agent (5:1, 10:1, 20:1). We find that the stress-stretch response of these materials shows significant variability, even for nominally identically prepared specimens. A non-linear, large-deformation rubber-elasticity model [5], [6] is applied to represent the behavior of PDMS. The constitutive model has been implemented in a finite-element program [7] to aid the design of microfluidic devices made from this material. As a first attempt towards the goal of estimating the non-linear material parameters for PDMS from indentation experiments, we have conducted micro-indentation experiments using a spherical indenter-tip, and carried out corresponding numerical simulations to verify how well the numerically-predicted P(load-h(depth of indentation) curves compare with the corresponding experimental measurements. The results are encouraging, and show the possibility of estimating the material parameters for PDMS from relatively simple micro-indentation experiments, and corresponding numerical simulations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this study, the supercritical antisolvent with enhanced mass transfer method (SASEM) is used to fabricate micro and nanoparticles of biocompatible and biodegradable polymer PLGA (poly DL lactide co glycolic acid). This process may be extended to the encapsulation of drugs in these micro and nanoparticles for controlled release purposes. Conventional supercritical antisolvent (SAS) process involves spraying a solution (organic solvent + dissolved polymer) into supercritical fluid (CO[subscript 2]), which acts as an antisolvent. The high rate of mass transfer between organic solvent and supercritical CO[subscript 2] results in supersaturation of the polymer in the spray droplet and precipitation of the polymer as micro or nanoparticles occurs. In the SASEM method, ultrasonic vibration is used to atomize the solution entering the high pressure with supercritical CO[subscript 2]. At the same time, the ultrasonic vibration generated turbulence in the high pressure vessel, leading to better mass transfer between the organic solvent and the supercritical CO₂. In this study, two organic solvents, acetone and dichloromethane (DCM) were used in the SASEM process. Phase Doppler Particle Analyzer (PDPA) was used to study the ultrasonic atomization of liquid using the ultrasonic probe for the SASEM process. Scanning Electron Microscopy (SEM) was used to study the size and morphology of the polymer particles collected at the end of the process.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Usually, psychometricians apply classical factorial analysis to evaluate construct validity of order rank scales. Nevertheless, these scales have particular characteristics that must be taken into account: total scores and rank are highly relevant

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Theory of compositional data analysis is often focused on the composition only. However in practical applications we often treat a composition together with covariables with some other scale. This contribution systematically gathers and develop statistical tools for this situation. For instance, for the graphical display of the dependence of a composition with a categorical variable, a colored set of ternary diagrams might be a good idea for a first look at the data, but it will fast hide important aspects if the composition has many parts, or it takes extreme values. On the other hand colored scatterplots of ilr components could not be very instructive for the analyst, if the conventional, black-box ilr is used. Thinking on terms of the Euclidean structure of the simplex, we suggest to set up appropriate projections, which on one side show the compositional geometry and on the other side are still comprehensible by a non-expert analyst, readable for all locations and scales of the data. This is e.g. done by defining special balance displays with carefully- selected axes. Following this idea, we need to systematically ask how to display, explore, describe, and test the relation to complementary or explanatory data of categorical, real, ratio or again compositional scales. This contribution shows that it is sufficient to use some basic concepts and very few advanced tools from multivariate statistics (principal covariances, multivariate linear models, trellis or parallel plots, etc.) to build appropriate procedures for all these combinations of scales. This has some fundamental implications in their software implementation, and how might they be taught to analysts not already experts in multivariate analysis

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We present Very Long Baseline Interferometry (VLBI) observations of the high mass X-ray binary LS I +61˚303, carried out with the European VLBI Network (EVN). Over the 11 hour observing run, performed ~10 days after a radio outburst, the radio source showed a constant flux density, which allowed sensitive imaging of the emission distribution. The structure in the map shows a clear extension to the southeast. Comparing our data with previous VLBI observations we interpret the extension as a collimated radio jet as found in several other X-ray binaries. Assuming that the structure is the result of an expansion that started at the onset of the outburst, we derive an apparent expansion velocity of 0:003 c, which, in the context of Doppler boosting, corresponds to an intrinsic velocity of at least 0:4 c for an ejection close to the line of sight. From the apparent velocity in all available epochs we are able to establish variations in the ejection angle which imply a precessing accretion disk. Finally we point out that LS I +61˚303, like SS 433 and Cygnus X-1, shows evidence for an emission region almost orthogonal to the relativistic jet

Relevância:

20.00% 20.00%

Publicador:

Resumo:

¿Cuáles son, en realidad, las ventajas de los dispositivos científicos usados en laboratorios escolares y en museos de ciencia interactivos, para el aprendizaje de las ciencias en los estudiantes? Un aprendizaje eficaz de las ciencias requiere comprensión. La generación de preguntas para obtener información es uno de los procesos que indican la intención de los estudiantes de comprender una determinada información. Además, la construcción de nuevo conocimiento científico comienza con una buena pregunta. Por tanto, estimular la generación de preguntas destinadas a obtener información (ISQ) podría ser un elemento que mejorara el aprendizaje profundo de las ciencias escolares

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A look at the Southampton Nanfabrication Centre where electro-photonic research is carried out and the AMD company's industrial processes for creating commercial quantities of silicon computing devices.