929 resultados para Principle of authority


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la détection de mouvement dans une séquence d'images acquises à l'aide d'une caméra fixe. Dans ce problème, la difficulté vient du fait que les mouvements récurrents ou non significatifs de la scène tels que les oscillations d'une branche, l'ombre d'un objet ou les remous d'une surface d'eau doivent être ignorés et classés comme appartenant aux régions statiques de la scène. La plupart des méthodes de détection de mouvement utilisées à ce jour reposent en fait sur le principe bas-niveau de la modélisation puis la soustraction de l'arrière-plan. Ces méthodes sont simples et rapides mais aussi limitées dans les cas où l'arrière-plan est complexe ou bruité (neige, pluie, ombres, etc.). Cette recherche consiste à proposer une technique d'amélioration de ces algorithmes dont l'idée principale est d'exploiter et mimer deux caractéristiques essentielles du système de vision humain. Pour assurer une vision nette de l’objet (qu’il soit fixe ou mobile) puis l'analyser et l'identifier, l'œil ne parcourt pas la scène de façon continue, mais opère par une série de ``balayages'' ou de saccades autour (des points caractéristiques) de l'objet en question. Pour chaque fixation pendant laquelle l'œil reste relativement immobile, l'image est projetée au niveau de la rétine puis interprétée en coordonnées log polaires dont le centre est l'endroit fixé par l'oeil. Les traitements bas-niveau de détection de mouvement doivent donc s'opérer sur cette image transformée qui est centrée pour un point (de vue) particulier de la scène. L'étape suivante (intégration trans-saccadique du Système Visuel Humain (SVH)) consiste ensuite à combiner ces détections de mouvement obtenues pour les différents centres de cette transformée pour fusionner les différentes interprétations visuelles obtenues selon ses différents points de vue.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté de médecine en vue de l'obtention du grade de Maître ès sciences appliquées (M.Sc.A.) en génie biomédical, option génie clinique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In the first part of the study we probed the effectiveness of rice bran oil as a multipurpose compounding ingredient for nitrile (NBR) and chloroprene (CR) rubbers. This oil has already been successfully employed in the compounding of NR and SBR in this laboratory.In this context we thought it worthwhile to try this oil in the polar rubbers viz, NBR and CR also. The principle of like dissolves like as applicable to solvents is equally applicable while selecting a plasticiser, elastomer combination. Because of the compatibility considerations polar plasticisers are preferred for polar rubbers like NBR and CR. Although plasticisation is a physical phenomenon and no chemical reaction is involved, the chemical structure of plasticisers determines how much physical attraction there is between the rubber and the plasticiser. In this context it is interesting to note that the various fatty acids present in rice bran oil have a long paraffinic chain, characteristic of waxes, with an acid group at the end of the molecule. The paraffinic end of the molecule contributes lubricating effects and limits compatibility whereas the acid end group contributes some polarity and is also chemically reactive. Because of absorption of acid group on the surface of pigments, these acids will have active pigment wetting characteristics also. These factors justifies the role of rice bran oil as a co-activator and lubricating agent for NBR and CR. In fact in our study we successfully replaced stearic acid as co-activator and aromatic oillDOP as processing aid for CR and NBR with rice bran oil.This part of the study has got special significance in the fact that rubber industry now heavily depends on petroleum industry for process oils. The conventional process oils like aromatic, naphthenic and paraffinic oils are increasingly becoming costlier, as its resources in nature are fast depleting. Moreover aromatic process oils are reported to be carcinogenic because of the presence of higher levels of polycyclic aromatic compounds in these oils.As a result of these factors, a great amount research is going on world over for newer processing aids which are cost effective, nontoxic and performanance wise at par with the conventional ones used in the rubber industry. Trials with vegetable oils in this direction is worth trying.Antioxidants are usually added to the rubber compound to minimise ageing effects from heat, light, oxygen etc. As rice bran oil contains significant amount of tocopherols and oryzanol which are natural antioxidants, we replaced a phenolic antioxidant like styrenated phenol (SP) from the compound recipe of both the rubbers with RBO and ascertained whether this oil could function in the role of antioxidant as well.Preparation and use of epoxidised rice bran oil as plasticiser has already been reported.The crude rice bran oil having an iodine value of 92 was epoxidised in this laboratory using peracetic acid in presence of sulphuric acid as catalyst. The epoxy content of the epoxidised oil was determined volumetrically by treating a known weight of the oil with excess HCI and back titrating the residual HCI with standard alkali solution. The epoxidised oil having an epoxy content of 3.4% was tried in the compounding of NBR and CR as processing aids. And results of these investigations are also included in this chapter. In the second part of the study we tried how RBO/ERBO could perform when used as a processing aid in place of aromatic oil in the compounding of black filled NRCR blends. Elastomers cannot have all the properties required for a particular applications, so it is common practice in rubber industry to blend two elastomers to have desired property for the resulting blend.In this RBO/ERBO was tried as a processing aid for plasticisation, dispersion of fillers, and vulcanisation of black filled NR-CR blends.Aromatic oil was used as a control. The results of our study indicate that these oils could function as a processing aid and when added together with carbon black function as a cure accelerator also.PVC is compatible with nitrile rubber in all proportions, provided NBR has an acrylonitrile content of 25 to 40%. Lower or higher ACN content in NBR makes it incompatible with PVC.PVC is usually blended with NBR at high temperatures. In order to reduce torque during mixing, additional amounts of plasticisers like DOP are added. The plasticiser should be compatible both with PVC and NBR so as to get a homogeneous blend. Epoxidised soyaben oil is reported to have been used in the compounding of PVC as it can perfonn both as an efficient plasticiser and heat stabilizer.At present DOP constitute the largest consumed plasticiser in the PVC compounding. The migration of this plasticiser from food packaging materials made of PVC poses great health hazards as this is harmful to human body. In such a scenario we also thought it worthwhile to see whether DOP could be replaced by rice bran oil in the compounding of NBR-PVC blends Different blends of NBR-PVC were prepared with RBO and were vulcanized using sulphur and conventional accelerators. The various physical and mechanical properties of the vulcanisates were evaluated and compared with those prepared with DOP as the control plasticiser. Epoxidised rice bran oil was also tried as plasticiser for the preparation of NBR-PVC blends. A comparison of the processability and cure characteristics of the different blends prepared with DOP and ERBO showed that ERBO based blends have better processability and lower cure time values. However the elastographic maximum torque values are higher for the DOP based blends. Almost all of the physical properties evaluated are found to be slightly better for the DOP based blends over the ERBO based ones. However a notable feature of the ERBO based blends is the better percentage retention of elongation at break values after ageing over the DOP based blends. The results of these studies using rice bran oil and its epoxidised variety indicated that they could be used as efficient plasticisers in place of DOP and justifies their role as novel, nontoxic, and cheap plasticisers for NBR-PVC blends.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

They present a Rule based in the Principle of Indifference to represent the formation of beliefs in conditions of uncertainty.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Page 1. Webhosting and Networking G. Santhosh Kumar, Dept. of Computer Science Cochin University of Science and Technology Page 2. Agenda What is a Network? Elements of a Network Hardware Software Ethernet Technology World Wide Web Setting up a Network Conclusion Page 3. What is a Network? An interconnected system of things or people Purpose of a Network? Resource Sharing Communication LANs have become the most popular form of Computer Networks Page 4. Principle of Locality of Reference Temporal Locality of Reference ...

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wird ein Unterrichtskonzept für die gymnasiale Oberstufe beschrieben, das anhand der Polarisationseigenschaft des Lichts von der Beobachtung ausgehend einen Zugang zur Quantenphysik ermöglicht. Die Unterrichtsinhalte bauen so aufeinander auf, dass ein "harter Bruch" zwischen der klassischen und der quantenphysikalischen Beschreibung von Licht vermieden wird. Das methodische Vorgehen des Unterrichtskonzeptes führt vom Phänomen ausgehend zu quantitativen Experimenten hin zu einer Einführung in quantenphysikalische Begriffe und Prinzipien. Dabei bildet der elektrische Feldvektor die Verknüpfung zwischen der klassischen und der quantenphysi-kalischen Beschreibung der Polarisationsexperimente, in dem er zunächst die Polarisationsexperimente beschreibt und im weiteren Verlauf des Unterrichtsganges als Wahrscheinlichkeitsamplitude gedeutet wird. Die Polarisation von Licht wird zu Beginn des Unterrichtsganges im Rahmen eines fächerübergreifenden Kontextes eingeführt, wobei die Navigation der Insekten nach dem polarisierten Himmelslicht als Einstieg dient. Die Erzeugung und die Eigen-schaften von polarisiertem Licht werden anhand von einfachen qualitativen Schüler- und Demonstrationsexperimenten mit Polarisationsfolien erarbeitet. Das Polarisationsphänomen der Haidinger-Büschel, das bei der Beobachtung von polarisiertem Licht wahrgenommen werden kann, ermöglicht eine Anbindung an das eigene Erleben der Schülerinnen und Schüler. Zur Erklärung dieser Experimente auf der Modellebene wird der elektrische Feldvektor und dessen Komponentenzerlegung benutzt. Im weiteren Verlauf des Unterrichtsganges wird die Komponentenzerlegung des elektrischen Feldvektors für eine quantitative Beschreibung der Polarisationsexperimente wieder aufgegriffen. In Experimenten mit Polarisationsfiltern wird durch Intensitätsmessungen das Malussche Gesetz und der quadratische Zusammenhang zwischen Intensität und elektrischem Feldvektor erarbeitet. Als Abschluss der klassischen Polarisationsexperimente wird das Verhalten von polarisiertem Licht bei Überlagerung in einem Michelson-Interferometer untersucht. Das in Abhängigkeit der Polarisationsrichtungen entstehende Interferenzmuster wird wiederum mit Hilfe der Komponentenzerlegung des elektrischen Feldvektors beschrieben und führt zum Superpositionsprinzip der elektrischen Feldvektoren. Beim Übergang zur Quantenphysik werden die bereits durchgeführten Polarisationsexperimente als Gedankenexperimente in der Photonenvorstellung gedeutet. Zur Beschreibung der Polarisation von Photonen wird der Begriff des Zustandes eingeführt, der durch die Wechselwirkung der Photonen mit dem Polarisationsfilter erzeugt wird. Das Malussche Gesetz wird in der Teilchenvorstellung wieder aufgegriffen und führt mit Hilfe der statistischen Deutung zum Begriff der Wahrscheinlichkeit. Bei der Beschreibung von Interferenzexperimenten mit einzelnen Photonen wird die Notwendigkeit eines Analogons zum elektrischen Feldvektor deutlich. Diese Betrachtungen führen zum Begriff der Wahrscheinlichkeitsamplitude und zum Superpositionsprinzip der Wahrscheinlichkeitsamplituden. Zum Abschluss des Unterrichtsganges wird anhand des Lokalisationsproblems einzelner Photonen das Fundamentalprinzip der Quantenphysik erarbeitet.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Zwischennutzungen sind ein Alltagsphänomen, das seit Ende der 1990er Jahre im wissenschaftlichen Kontext und der kommunalen Praxis der Stadt- und Freiraumentwicklung auffallend an Aufmerksamkeit gewinnt. Die vorliegende Arbeit widmet sich dem Phänomen aus der Perspektive der Freiraumentwicklung als kommunaler Aufgabe. Im Zentrum des Interesses steht die Frage, welche aktuelle Bedeutung Zwischennutzungen, verstanden als die vorübergehende Freiraumnutzung brachliegender Baugrundstücke, für freiraumbezogene öffentliche Aufgaben und Handlungsansätze haben bzw. welche Potentiale sie dafür bieten. Vor dem Hintergrund heterogener gesellschaftlicher und räumlicher Gegebenheiten, der Erkenntnis um eine begrenzte hoheitliche Steuerbarkeit der weiteren stadträumlichen Entwicklung und angesichts knapper Haushaltsmittel ist die kommunale Freiraumentwicklung gefordert, sich bezüglich ihrer Kernaufgaben aber auch bezüglich ihrer Rolle bei der Erfüllung dieser Aufgaben neu zu positionieren. Vermehrt werden Forderungen nach einem Abgehen von „allgemeingültigen“ Versorgungsstandards und traditionellen „Produktionsprozessen“ laut. Flexiblere Freiraumangebote sollen Gestaltungsspielräume für eigeninitiatives Handeln und wechselhafte oder neuartige Nutzungen eröffnen. Mit dem Setzen von Prioritäten, einer verstärkten Kundenorientierung und aktivierenden bzw. kooperativen Handlungsansätzen soll der schlechten Haushaltslage begegnet werden. Zwischennutzungen deuten aufgrund ihrer funktionalen, räumlichen und zeitlichen Flexibilität Möglichkeiten an, auf diese Anforderungen einzugehen. Der Blick in die Verwaltungspraxis einzelner Städte zeigt, dass Zwischennutzungen in der kommunalen Freiraumentwicklung in verschiedenen Zusammenhängen gezielt aufgegriffen werden und dabei diverse Bezüge zu diesen aktuellen Anforderungen herstellen lassen. Der Stellenwert, der ihnen beigemessen wird, reicht dabei vom Ausnahmefall bis zum bewährten Ansatz. Mit den Maßnahmen werden häufig akute bzw. kurzfristige Ziele verfolgt, etwa die vorübergehende Schaffung zusätzlicher Spiel- und Aufenthaltsmöglichkeiten oder die Aufwertung brachliegender Flächen durch extensive Gestaltungsmaßnahmen. Die Projekte sind häufig charakterisiert durch intensive Kooperationen mit anderen öffentlichen und mit nicht-öffentlichen Akteuren. Die Einbindung von Zwischennutzungen in das alltägliche Verwaltungshandeln ist allerdings auch mit diversen Schwierigkeiten verbunden, wie erste Institutionalisierungsansätze in manchen Städten zeigen. Die Verknüpfung unterschiedlicher Zeithorizonte im Planungsgeschehen, die Verbindung des temporären Phänomens Zwischennutzung mit dem traditionellerweise auf Dauerhaftigkeit ausgerichteten Aufgabenverständnis der kommunalen Freiraumentwicklung verlangt nach einer Modifizierung bisheriger Positionen und Herangehensweisen. Ein solcher Anpassungsprozess im Verwaltungshandeln lässt sich nur langfristig und schrittweise bewältigen und ist als Teil der – angesichts aktueller Entwicklungen notwendigen – Weiterentwicklung freiraumbezogener Aufgaben und Handlungsansätze zu verstehen. Zwischennutzungen können neben ihren kurzfristig umsetzbaren Funktionen einen Beitrag dazu leisten.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die traditionellen Empathiekonzepte (z. B. Rogers, Kohut), die in der Psychotherapie bis heute maßgebend sind, werden einer gründlichen Überprüfung unterzogen. Dabei ergeben sich drei wesentliche Kritikpunkte: (1) Empathische Vorgänge in der Psychotherapie werden als einseitige Prozesse verstanden; der Therapeut fühlt sich in die Klientin ein, nicht auch umgekehrt. (2) Empathie wird in Cartesianischer Tradition schwerpunktmäßig als kognitive Leistung gesehen; ein körperloser Geist vergegenwärtigt sich die mentalen Inhalte eines anderen. (3) Das traditionelle Empathieverständnis ist individualistisch: Therapeutin und Klient halten sich demnach scheinbar im luftleeren Raum auf. Es sieht so aus, als existiere kein Kontext, der sie umgibt. So einseitig, wie ihre Beziehung gedacht wird, so abgetrennt, wie ihr Körper von ihrem Geist zu sein scheint, so unverbunden sind sie scheinbar mit dem Rest der Welt. Aus diesen drei Kritikpunkten folgt die Notwendigkeit, den Empathiebegriff der Psychotherapie zu erweitern, d. h. (a) Empathie als gegenseitigen Prozess der Beteiligten zu begreifen, (b) ihre tiefe Verwurzelung in der Leiblichkeit des Menschen zu berücksichtigen und (c) ihre Einbettung in die Dynamiken einer gemeinsamen Situation im Rahmen eines kulturellen Kontextes einzubeziehen. Mit Rückgriff auf neuere Untersuchungsergebnisse aus der Entwicklungspsychologie (z. B. Emde, Hobson, Meltzoff, Stern, Trevarthen), der Sozial- und Emotionspsychologie (z. B. Chartrand, Ekman, Goleman, Hatfield, Holodynski), der sozialen Neurowissenschaften (z. B. Damasio, Gallese, Iacoboni, LeDoux, Rizzolatti), aber auch mit Hilfe der Erkenntnisse aus der klassischen (Husserl, Merleau- Ponty, Edith Stein) und der Neuen Phänomenologie (Schmitz) sowie aus symbolischem Interaktionismus (Mead) und aus der kulturhistorischen Schule (Vygotskij) werden diese drei bislang wenig beleuchteten Dimensionen der Empathie betrachtet. ad a) Die Gegenseitigkeit empathischer Vorgänge in der Psychotherapie wird anhand des entwicklungspsychologischen Konzepts des social referencing erläutert und untersucht: Kleinkinder, die in eine unbekannte bzw. unsichere Situation geraten (z. B. im Experiment mit der "visuellen Klippe"), orientieren sich an den nonverbalen Signalen ihrer Bezugspersonen, um diese Situation zu bewältigen. Dabei erfasst die Mutter die Situation des Kindes, versucht ihm ihre Stellungnahme zu seiner Situation zu übermitteln, und das Kind begreift die Reaktion der Mutter als Stellungnahme zu seiner Situation. ad b) Die Körperlichkeit bzw. Leiblichkeit der Einfühlung manifestiert sich in vielfältigen Formen, wie sie von der Psychologie, der Phänomenologie und den Neurowissenschaften erforscht werden. Das kulturübergreifende Erkennen des Gesichtsausdrucks von Basisemotionen ist hier ebenso zu nennen wie die Verhaltensweisen des motor mimicry, bei dem Menschen Körperhaltungen und – bewegungen ihrer Bezugspersonen unwillkürlich imitieren; des Weiteren das unmittelbare Verstehen von Gesten sowie die Phänomene der „Einleibung“, bei denen die körperliche Situation des Anderen (z. B. eines stürzenden Radfahrers, den man beobachtet) am eigenen Leib mitgefühlt wird; und außerdem die Entdeckung der „Spiegelneurone“ und anderer neuronaler Strukturen, durch die Wahrgenommenes direkt in analoge motorische Aktivität übersetzt wird. ad c) Intersubjektivitätstheoretische Überlegungen, Konzepte wie „dyadisch erweiterter Bewusstseinszustand“ (Tronick) und „gemeinsame Situation“ (Gurwitsch, Schmitz) verweisen auf die Bedeutung überindividueller, ‚emergenter’ Dimensionen, die für die Verständigung zwischen Menschen wichtig sind. Sie folgen gestaltpsychologischen Prinzipien („Das Ganze ist mehr und anders als die Summe seiner Teile.“), die mit Hilfe von Gadamers Begriff des „Spiels“ analysiert werden. Am Ende der Arbeit stehen die Definition eines neuen Empathiebegriffs, wie er sich aus den vorangegangenen Überlegungen ergibt, sowie eine These über die psychotherapeutische Wirkweise menschlicher Einfühlung, die durch weitere Forschungen zu überprüfen wäre.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Diese Arbeit sucht nach den Erwerbstätigkeiten und Kompetenzen deutscher Philosophie-Absolvent(inn)en und nach der Wahrheit ihrer angeblichen Arbeitslosenquote. Anhand von EU-Papieren werden Anknüpfungspunkte für kompetenzorientierte Philosophie-Lehre aufgezeigt. Es wird dargestellt, wie Philosoph(inn)en die Kompetenzdiskussion sowohl in Deutschland als auch – über die OECD – international beeinfluss(t)en und mit gestalt(et)en. Die notwendige Voraussetzung für Lernen und Kompetenzentwicklung ist die Plastizität unseres Gehirnes. Biographisch beginnt das Lernen in der Schule und findet sein vorläufiges Ende in der Arbeitswelt. Diese Arbeit versucht, den zwischen schul- und arbeitsweltorientierten Kompetenzforschern bestehenden Graben zu überwinden. Problemlösefähigkeit in internationalen Teams wird für die gelingende Zukunft unserer Welt als wesentliche fachübergreifende Kompetenz erachtet. Für den in Deutschland sehr einflussreichen Kompetenzforscher John Erpenbeck ist die Selbstorganisationsfähigkeit ein Ankerpunkt. Für den Entwickler der noch heute in Deutschland anerkannten Kompetenzbereiche (Sach-, Sozial- und Selbstkompetenz), Heinrich Roth, liegt die "Höchstform menschlicher Handlungsfähigkeit" in der moralischen Selbstbestimmung. Die Zukunft wird zeigen, inwieweit das Verständnis von Regeln, Werten und Normen bei den arbeitswissenschaftlichen Kompetenzforschern im Korsett einer jeweiligen Unternehmensphilosophie verbleibt, oder inwieweit die Selbstorganisationsfähigkeit im Sinne einer moralischen Selbstbestimmung des Einzelnen die Unternehmensphilosophie prägt. In literaturhistorischen Anhängen wird ein assoziatives Feld von Einzelinformationen dargeboten, die einen roten Faden im Sinne eines sich aufbauenden Argumentes vermissen lassen. Vordergründig wird nur ein loses Band von John Dewey und William James bis Heinrich Roth und die heutige Zeit hergestellt. Hintergründig will der Autor darauf hinweisen, dass es einen Unterschied macht, ob sich der Begriff "Selbstorganisationsfähigkeit" aus einer physikalischen oder einer biologischen Wurzel entwickelt. Der Autor sieht keinen zwingenden Grund für das Bestehen eines eigenständigen Studienganges "Philosophie". Allerdings kann er auch nicht erkennen, warum er abgeschafft werden sollte.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This thesis addresses the problem of categorizing natural objects. To provide a criteria for categorization we propose that the purpose of a categorization is to support the inference of unobserved properties of objects from the observed properties. Because no such set of categories can be constructed in an arbitrary world, we present the Principle of Natural Modes as a claim about the structure of the world. We first define an evaluation function that measures how well a set of categories supports the inference goals of the observer. Entropy measures for property uncertainty and category uncertainty are combined through a free parameter that reflects the goals of the observer. Natural categorizations are shown to be those that are stable with respect to this free parameter. The evaluation function is tested in the domain of leaves and is found to be sensitive to the structure of the natural categories corresponding to the different species. We next develop a categorization paradigm that utilizes the categorization evaluation function in recovering natural categories. A statistical hypothesis generation algorithm is presented that is shown to be an effective categorization procedure. Examples drawn from several natural domains are presented, including data known to be a difficult test case for numerical categorization techniques. We next extend the categorization paradigm such that multiple levels of natural categories are recovered; by means of recursively invoking the categorization procedure both the genera and species are recovered in a population of anaerobic bacteria. Finally, a method is presented for evaluating the utility of features in recovering natural categories. This method also provides a mechanism for determining which features are constrained by the different processes present in a multiple modal world.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In the first part of this paper we show a similarity between the principle of Structural Risk Minimization Principle (SRM) (Vapnik, 1982) and the idea of Sparse Approximation, as defined in (Chen, Donoho and Saunders, 1995) and Olshausen and Field (1996). Then we focus on two specific (approximate) implementations of SRM and Sparse Approximation, which have been used to solve the problem of function approximation. For SRM we consider the Support Vector Machine technique proposed by V. Vapnik and his team at AT&T Bell Labs, and for Sparse Approximation we consider a modification of the Basis Pursuit De-Noising algorithm proposed by Chen, Donoho and Saunders (1995). We show that, under certain conditions, these two techniques are equivalent: they give the same solution and they require the solution of the same quadratic programming problem.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A novel process based on the principle of layered photolithography has been proposed and tested for making real three-dimensional micro-structures. An experimental setup was designed and built for doing experiments on this micro-fabrication process. An ultraviolet (UV) excimer laser at the wavelength of 248 nm was used as the light source and a single piece of photo-mask carrying a series of two dimensional (2D) patterns sliced from a three dimensional (3D) micro-part was employed for the photolithography process. The experiments were conducted on the solidification of liquid photopolymer from single layer to multiple layers. The single-layer photolithography experiments showed that certain photopolymers could be applied for the 3D micro-fabrication, and solid layers with sharp shapes could be formed from the liquid polymer identified. By using a unique alignment technique, multiple layers of photolithography was successfully realized for a micro-gear with features at 60 microns. Electroforming was also conducted for converting the photopolymer master to a metal cavity of the micro-gear, which proved that the process is feasible for micro-molding.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper is a first draft of the principle of statistical modelling on coordinates. Several causes —which would be long to detail—have led to this situation close to the deadline for submitting papers to CODAWORK’03. The main of them is the fast development of the approach along the last months, which let appear previous drafts as obsolete. The present paper contains the essential parts of the state of the art of this approach from my point of view. I would like to acknowledge many clarifying discussions with the group of people working in this field in Girona, Barcelona, Carrick Castle, Firenze, Berlin, G¨ottingen, and Freiberg. They have given a lot of suggestions and ideas. Nevertheless, there might be still errors or unclear aspects which are exclusively my fault. I hope this contribution serves as a basis for further discussions and new developments

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Starting with logratio biplots for compositional data, which are based on the principle of subcompositional coherence, and then adding weights, as in correspondence analysis, we rediscover Lewi's spectral map and many connections to analyses of two-way tables of non-negative data. Thanks to the weighting, the method also achieves the property of distributional equivalence

Relevância:

80.00% 80.00%

Publicador:

Resumo:

”compositions” is a new R-package for the analysis of compositional and positive data. It contains four classes corresponding to the four different types of compositional and positive geometry (including the Aitchison geometry). It provides means for computation, plotting and high-level multivariate statistical analysis in all four geometries. These geometries are treated in an fully analogous way, based on the principle of working in coordinates, and the object-oriented programming paradigm of R. In this way, called functions automatically select the most appropriate type of analysis as a function of the geometry. The graphical capabilities include ternary diagrams and tetrahedrons, various compositional plots (boxplots, barplots, piecharts) and extensive graphical tools for principal components. Afterwards, ortion and proportion lines, straight lines and ellipses in all geometries can be added to plots. The package is accompanied by a hands-on-introduction, documentation for every function, demos of the graphical capabilities and plenty of usage examples. It allows direct and parallel computation in all four vector spaces and provides the beginner with a copy-and-paste style of data analysis, while letting advanced users keep the functionality and customizability they demand of R, as well as all necessary tools to add own analysis routines. A complete example is included in the appendix