958 resultados para Iron foundries Production control Data processing
Resumo:
Diplomityö on tapaustutkimus, jossa analysoidaan yrityksen tilausohjautuvan massatuotannon läpimenoon vaikuttavia tekijöitä huippukuormituksen aikana. Tavoitteena oli selvittää päätuotantolinjan yksittäisten osien kapasiteetin käyttösuhdetta pienentävät ja koko tuotantoketjun läpäisyaikaan vaikuttavat tekijät, kapasiteetin käyttösuhdetta pienentävien tekijöiden poistamiseksi tarvittavat toimenpiteet ja teoreettinen maksimikapasiteetti näiden toimenpiteiden suorittamisen jälkeen. Selvitystä käytettiin tukimateriaalina päätettäessä tulevaisuuden laiteinvestoinneista. Projektin tiedonkeruun menetelminä toteutettiin osallistuvaa havainnointia, tehtiin aikamittauksia sekä kokeiltiin erilaisia tuotannonohjauksen järjestelyjä. Kerättyjen tietojen pohjalta laadittiin arviolaskelmia kapasiteetin käyttösuhteen määrittämiseksi sekä arvioitiin eri muuttujien vaikutusta. Tutkimuksen perusteella löydettiin kustakin päätuotantolinjan työvaiheesta kapasiteetin käyttösuhdetta vähentäviä tekijöitä ja laadittiin parannusehdotuksia. Esimerkkeinä työaikajärjestelyt ja käyttömiesten toimenkuvaan kuuluvien tehtävien järjestelyt, sekä kunnossapidon, tuotannonohjauksen ja tiedonkulun kehittäminen. Tutkimuksessa esitettyjen parannusehdotusten, kysynnän kehitysennusteiden ja suunnitellun laitteistoinvestoinnin toteutumisen myötä tuotannon pullonkaulatyövaihe siirtyy tuotantoketjussa seuraavaan vaiheeseen. Tämän huomioiminen investointipäätöksissä on oleellista tasaisesti virtaavan tuotannon aikaansaamiseksi.
Resumo:
Background Nowadays, combining the different sources of information to improve the biological knowledge available is a challenge in bioinformatics. One of the most powerful methods for integrating heterogeneous data types are kernel-based methods. Kernel-based data integration approaches consist of two basic steps: firstly the right kernel is chosen for each data set; secondly the kernels from the different data sources are combined to give a complete representation of the available data for a given statistical task. Results We analyze the integration of data from several sources of information using kernel PCA, from the point of view of reducing dimensionality. Moreover, we improve the interpretability of kernel PCA by adding to the plot the representation of the input variables that belong to any dataset. In particular, for each input variable or linear combination of input variables, we can represent the direction of maximum growth locally, which allows us to identify those samples with higher/lower values of the variables analyzed. Conclusions The integration of different datasets and the simultaneous representation of samples and variables together give us a better understanding of biological knowledge.
Resumo:
Työn tavoitteena oli luoda malli, jonka avulla voitaisiin ennustaa kartonkituotteiden hinnan ja kysynnän kehitystä. Työssä kerättiin aluksi tietoa kartonkimarkkinoista haastattelujen ja tilastotietojen avulla. Näiden perusteella luotiin malli, joka kuvaa kartonkimarkkinoiden ja -teollisuuden rakennetta. Erityisesti kiinnitettiin huomiota asiakkaiden tilauskäyttäytymiseen, tuotannonohjaukseen sekä hinnan muodostumiseen. Työssä käytettiin ennustemenetelmänä systeemidynamiikkaa. Oleellista oli löytää systeemissä esiintyvät tärkeimmät takaisinkytkennät ja systeemin avainmuuttujat. Kun kaikille mallin muuttujille oli määritetty yhtälöt ja vakioille annettu arvot, voitiin mallia simuloida, ja saada ennusteet halutuille muuttujille. Työssä esitettiin ennusteet kartonkimarkkinoiden tärkeimmille parametreille kahden vuoden päähän. Työssä tarkasteltiin myös, miten muutokset mallin käyttäytymistä säätelevissä muuttujissa vaikuttavat tuloksiin. Jotta pystyttäisiin paremmin selvittämään koko kartonkiteollisuuden dynamiikka, lisätutkimusta tarvittaisiin vielä eri kartonkilajien substituutiomahdollisuuksista ja hintojen riippuvuuksista. Mielenkiintoista olisi myös tietää, miten tuotannon käyttöasteiden muutokset ja hinnan vaihtelut vaikuttavat liiketoiminnan kannattavuuteen valmistajien näkökulmasta.
Resumo:
Diplomityön tarkoituksena oli selvittää uuden tuotannonsuunnitteluohjelman vaatimukset käyttäjien näkökulmasta sekä pyrkiä laatimaan ehdotus yhtenäisestä toimintatavasta eri tuotantoyksiköille. Aluksi esiteltiin tietojärjestelmien hankkimisessa huomioitavia seikkoja, jonka jälkeen kuvattiin uudelle tuotannonsuunnitteluohjelmalle asetettuja vaatimuksia. Vaatimukset oli selvitetty haastattelemalla yksiköiden henkilöstöä ja havainnoimalla heidän päivittäistä työskentelyään. Haastattelun ja havainnoinnin avulla tutustuttiin myös yksiköiden nykyisiin toimintatapoihin. Tämän jälkeen käsiteltiin työn tuottavuuden teoriaa ja mitattiin tuotantoyksiköiden eri henkilöstöryhmien työn tuottavuuksia. Mittaamisen tarkoituksena oli auttaa selvittämään yhdessä toimintatapojen vertailun kanssa parhaita tapoja toimia. Tutkimuksessa havaittiin selkeitä eroja työn tuottavuuksissa eri tuotantoyksiköiden välillä. Todettiin, että erojen syihin tulee kiinnittää huomiota ja pyrkiä pienentämään niitä esimerkiksi omaksumalla paremman työn tuottavuuden omaavan tuotantoyksikön toimintatavat. Todettiin myös, että uuden tuotannonsuunnitteluohjelman käyttöönotto on selkein keino yhtenäistää tuotantoyksiköiden toimintatapoja. Työn tuloksena laadittiin määrittely tuotannonsuunnitteluohjelmalle asetettavista vaatimuksista, joka tulee toimimaan jatkossa ohjelman kehittämisen pohjana. Työssä luotiin myös ehdotus yhtenäisestä tavasta toimia, jota tulee kuitenkin vielä työstää ja keskustella sen sisällöstä eri tuotantolaitosten edustajien kanssa
Resumo:
There are two main objects in this study: First, to prove the importance of data accuracy to the business success, and second, create a tool for observing and improving the accuracy of ERP systems production master data. Sub-objective is to explain the need for new tool in client company and the meaning of it for the company. In the theoretical part of this thesis the focus is in stating the importance of data accuracy in decision making and it's implications on business success. Also basics of manufacturing planning are introduced in order to explain the key vocabulary. In the empirical part the client company and its need for this study is introduced. New master data report is introduced, and finally, analysing the report and actions based on the results of analysis are explained. The main results of this thesis are finding the interdependence between data accuracy and business success, and providing a report for continuous master data improvement in the client company's ERP system.
Resumo:
L’Slot, conegut per tots amb el nom d’Scalextric, s’ha implantat com a una forma d’oci habitual, la pràctica del qual no queda restringida als més petits, sinó que cada vegada crea més afició entre els grans. El fet que l’Slot s’hagi extès entre els adults n’ha revolucionat la pràctica. L’entrada al mercat de l’Slot de gent adulta, i amb poder adquisitiu molt superior als adolescents, ha provocat que les marques especialitzades vagin evolucionant els seus productes cada vegada més. Totes les marques s’han vist obligades a desenvolupar vehicles més competitius i alhora treure al mercat accessoris que augmentin la realitat del joc. Una de les necessitats que s’ha creat és la de competir entre jugadors. Aquesta competició tan pot ser en forma de carrera entre diversos participants, com de forma individual, cronometrant el temps de cada participant en un circuit. L’objectiu principal del projecte és crear un sistema capaç de realitzar cronometratges en temps real mitjançant sensors digitals ja existents en el mercat de l’Slot i poder controlar i visualitzar la informació des d’un PC. Per a poder captar els senyals dels sensors s’ha utilitzat un sistema microcontrolat, que garanteix gran velocitat d’adquisició, processament de dades i transmissió. La comunicació del Microcontrolador amb el PC s’ha realizat mitjançant el bus USB. El PC serà el controlador del sistema i donarà les ordres al Microcontrolador, podent així tenir control total sobre el funcionament del programa. També serà el PC el que tractarà els crocometratges enregistrats i els mostrarà per pantalla
Resumo:
Tämän työn tavoitteena oli kehittää monitehdasympäristöön siirtyneen pk-yrityksen tuotannon tuotetiedonhallintaa. Hajautettu tuotanto ja verkostoituminen oli luonut uusia haasteita ja vaatimuksia tuotetiedonhallinnalle. Teoriaosassa selvitettiin mitä tuotannon tuotetiedoilla tarkoitetaan, mitä osa-alueita on hallittava sekä miten niitä voitaisiin hallita kansainvälisesti verkostoituneen yrityksen näkökulmasta. Näiden lisäksi kartoitettiin ja vertailtiin erilaisia kehittämisvaihtoehtoja. Teorioista luotiin itsearviointityökalu kohdeyrityksen tuotannon tuotetiedon nykytilan kuvausta ja –analyysia varten. Löydetyt kehittämistarpeet priorisoitiin ja valituille kehityskohteille pohdittiin ratkaisuehdotuksia kaksivaiheisen kehittämismallin mukaisesti.
Resumo:
Sisäisen suorituskyvyn tehostaminen on yrityksille jatkuvan kehityksen prosessi. Diplomityön tarkoituksena oli selvittää Paroc Oy Ab:n kourukoneiden suorituskykymittarit sekä analysoida ja kehittää niitä. Lisäksi selvitettiin suorituskykyä kuvaavat raporttimallit eri tuotantopaikkakunnilta ja kehitettiin niitä. Teoriaosuudessa kerrotaan, mitä suorituskyvyllä tarkoitetaan sekä käydään läpi sen eri osa-alueita. Siinä esitetään myös suorituskyvyn mittaamista sekä kuinka mittareita suunnitellaan ja rakennetaan. Työn painopiste on kuitenkin empiirisessä osuudessa, jossa ensin kerrotaan työn kohteena olevien kourukoneiden tuotantoprosessi ja tämän jälkeen paneudutaan suorituskykymittareihin ja niiden analysointiin sekä raporttimalleihin. Lopuksi esitetään työn aikana esille nousseita kehitysehdotuksia. Tunnuslukujen selvittämisen tuloksena havaittiin, että kirjallisuus tukee käytössä olevia mittareita. Työssä kerättiin tuotantodataa kourukoneilta usean vuoden aikajaksolta. Datasta valmisteltiin mallit, joita käytettiin mittarien analysointiin. Analysoinnin tuloksena kävi ilmi, että mittarien tarjoama tieto oli joiltakin osin puutteellista ja näin ollen päätöksentekijälle harhaanjohtavaa. Raporttimallit eivät olleet yhtenäisiä paikkakuntien välillä, mikä toi epävarmuutta tuloksiin laskentaperiaatteiden osalta. Työn lopputuloksena tehtiin käytössä oleville suorituskykymittareille kehitysehdotuksia tarkemman ja laadukkaamman tiedon takaamiseksi. Työssä esitettiin myös uusia mittariehdotuksia. Raporttimallit yhtenäistettiin uuden tuotannonohjausjärjestelmän tuomien mahdollisuuksien myötä.
Resumo:
The main objective of the study was to find new approaches to the management of work in process in a rapidly changing power distribution network contracting environment in order to improve the efficiency of the management of capital and workload. The study describes the operating environment of a power distribution network contractor based in Eastern Finland and combines various activity indicators to create a general view. The literature review discusses scientific articles on project production, work in process and working capital management, analytical tools for projects as well as Lean criteria. The analysis of two case studies dealing with the characteristics of the power distribution network restructuring, focuses on how production management and management of work in process can potentially be improved in power distribution network contracting environments. The main results are the summary of the key figures of production, the data concerning the significance of different project types for work in process as well as the ways of improving the efficiency of production and business development in the present context.
Resumo:
One of the fundamental problems with image processing of petrographic thin sections is that the appearance (colour I intensity) of a mineral grain will vary with the orientation of the crystal lattice to the preferred direction of the polarizing filters on a petrographic microscope. This makes it very difficult to determine grain boundaries, grain orientation and mineral species from a single captured image. To overcome this problem, the Rotating Polarizer Stage was used to replace the fixed polarizer and analyzer on a standard petrographic microscope. The Rotating Polarizer Stage rotates the polarizers while the thin section remains stationary, allowing for better data gathering possibilities. Instead of capturing a single image of a thin section, six composite data sets are created by rotating the polarizers through 900 (or 1800 if quartz c-axes measurements need to be taken) in both plane and cross polarized light. The composite data sets can be viewed as separate images and consist of the average intensity image, the maximum intensity image, the minimum intensity image, the maximum position image, the minimum position image and the gradient image. The overall strategy used by the image processing system is to gather the composite data sets, determine the grain boundaries using the gradient image, classify the different mineral species present using the minimum and maximum intensity images and then perform measurements of grain shape and, where possible, partial crystallographic orientation using the maximum intensity and maximum position images.
Resumo:
Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Analysis by reduction is a linguistically motivated method for checking correctness of a sentence. It can be modelled by restarting automata. In this paper we propose a method for learning restarting automata which are strictly locally testable (SLT-R-automata). The method is based on the concept of identification in the limit from positive examples only. Also we characterize the class of languages accepted by SLT-R-automata with respect to the Chomsky hierarchy.
Resumo:
In dieser Arbeit wird ein generisches Modell fuer synchrone Gruppenarbeit auf gemeinsamen Informationsraeumen entwickelt. Fuer die Entwicklung dieses Modells muessen die Grundfunktionen fuer Anwendungen der synchronen Gruppenarbeit realisiert werden. Neben der Modellierung des Datenraumes (Datenmodell) und der operationellen Schnittstelle (Interaktionsmodell), muessen Mechanismen fuer die Darstellung der Aktivitaeten der Gruppenmitglieder auf dem Informationsraum (Awareness), sowie fuer die Synchronisierung gleichzeitiger Zugriffe verschiedener Benutzer auf dem Datenraum realisiert werden (Nebenlaeufgkeitskontrolle). Das Grundproblem bei der Loesung der Nebenlaeufigkeit liegt bei der Aufgabe der Isolation aus den klassischen ACID-Transaktionen zu gunsten von Awareness. Die rapide Entwicklung von Techniken der mobilen Kommunikation ermoeglicht den Einsatz dieser Geraete fuer den Zugriff auf Daten im Internet. Durch UMTSund WLAN-Technologien koennen Mobilgeraete fuer Anwendungen ueber die reine Kommunikation hinaus eingesetzt werden. Eine natuerliche Folge dieser Entwicklung sind Anwendungen fuer die Zusammenarbeit mehrerer Benutzer. In der Arbeit wird daher auf die Unterstuetzung mobiler Geraete besonderen Wert gelegt. Die Interaktion der Benutzer auf den gemeinsamen Datenraum wird durch einfache Navigationsoperationen mit einem Cursor (Finger) realisiert, wobei der Datenraum durch XML-Dokumente dargestellt wird. Die Visualisierung basiert auf der Transformierung von XML-Dokumenten in andere XML-basierte Sprachen wie HTML oder SVG durch XSLT-Stylesheets. Awareness-Informationen werden, aehnlich dem Fokus/Nimbus-Modell, von der Interaktion der Benutzer und der Ermittlung der sichtbaren Objekte bei dem Benutzer hergeleitet. Fuer eine geeignete Kontrolle der Nebenlaeufigkeit wurde der Begriff der visuellen Transaktion eingefuehrt, wo die Auswirkungen einer Transaktion von anderen Benutzern (Transaktionen) beobachtet werden koennen. Die Synchronisierung basiert auf einem Sperrverfahren und der Einfuehrung der neuen W-Sperre und der Grundoperationen readV und writeV. Das Modell (Groupware-Server) wird in der Arbeit in einem Prototyp implementiert. Weiterhin wird eine Java-Anwendung sowohl auf einem Desktop PC als auch auf einem Pocket PC (iPAQ 3970) implementiert, welche die Einsetzbarkeit dieses Prototyps demonstriert.
Resumo:
Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.