935 resultados para Enterprise application integration (Computer systems)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cue exposure treatment (CET) consists of controlled and repeated exposure to drugrelated stimuli in order to reduce cue-reactivity. Virtual reality (VR) has proved to be a promising tool for exposition. However, identifying the variables that can modulate the efficacy of this technique is essential for selecting the most appropriate exposure modality. The aim of this study was to determine the relation between several individual variables and self-reported craving in smokers exposed to VR environments. Fortysix smokers were exposed to seven complex virtual environments that reproduce typical situations in which people smoke. Self-reported craving was selected as the criterion variable and three types of variables were selected as the predictor variables: related to nicotine dependence, related to anxiety and impulsivity, and related to the sense of presence in the virtual environments. Sense of presence was the only predictor of self-reported craving in all the experimental virtual environments. Nicotine dependence variables added predictive power to the model only in the virtual breakfast at home. No relation was found between anxiety or impulsivity and self-reported craving. Virtual reality technology can be very helpful for improving CET for substance use disorders. However, the use of virtual environments would make sense only insofar as the sense of presence was high. Otherwise, the effectiveness of exposure might be affected. © 2012 by the Massachusetts Institute of Technology.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Especially in global enterprises, key data is fragmented in multiple Enterprise Resource Planning (ERP) systems. Thus the data is inconsistent, fragmented and redundant across the various systems. Master Data Management (MDM) is a concept, which creates cross-references between customers, suppliers and business units, and enables corporate hierarchies and structures. The overall goal for MDM is the ability to create an enterprise-wide consistent data model, which enables analyzing and reporting customer and supplier data. The goal of the study was defining the properties and success factors of a master data system. The theoretical background was based on literature and the case consisted of enterprise specific needs and demands. The theoretical part presents the concept, background, and principles of MDM and then the phases of system planning and implementation project. Case consists of background, definition of as is situation, definition of project, evaluation criterions and concludes the key results of the thesis. In the end chapter Conclusions combines common principles with the results of the case. The case part ended up dividing important factors of the system in success factors, technical requirements and business benefits. To clarify the project and find funding for the project, business benefits have to be defined and the realization has to be monitored. The thesis found out six success factors for the MDM system: Well defined business case, data management and monitoring, data models and structures defined and maintained, customer and supplier data governance, delivery and quality, commitment, and continuous communication with business. Technical requirements emerged several times during the thesis and therefore those can’t be ignored in the project. Conclusions chapter goes through these factors on a general level. The success factors and technical requirements are related to the essentials of MDM: Governance, Action and Quality. This chapter could be used as guidance in a master data management project.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This review reports the use of solid amalgam electrodes in the electroanalytical determination of organic and inorganic compounds. The different types of amalgam electrodes are presented, and attention is paid to solid amalgam electrode, and here is presented details about the pre-treatment for activation and renovation and also possible modifications in its surface. The wide potential range, higher signal-to-noise ratio, mechanical stability enabling their application in flowing systems, and principally their resistance toward passivation, indicate that the solid amalgam electrodes are environmentally friendly alternatives to mercury electrodes, without loss in the sensitivity and reproducibility in voltammetric responses.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of this study was to produce membranes using the adapted cuprammonium method. The cellulose utilized was obtained from recycled agroindustrial residues: sugarcane bagasse, corn stover and soybean hulls. The levels of Cu (II) ions in regenerated cellulose membranes produced with cellulose from bagasse, corn stover and soybean hulls were 0.0236 wt%, 0.0255 wt% and 0.0268 wt%, respectively. These levels were approximately 15 times lower than those observed in previous studies (0.3634 wt%). Cellular viability data show that membranes produced from bagasse cellulose do not present toxicity to the cellular cultures studied. These results demonstrate an evolution in production of regenerated cellulose membranes from agroindustrial residues mainly due to a decrease in the Cu (II) ions level, showing the possibility of application of these systems with improved membranes processing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The present study aimed at evaluating the use of Artificial Neural Network to correlate the values resulting from chemical analyses of samples of coffee with the values of their sensory analyses. The coffee samples used were from the Coffea arabica L., cultivars Acaiá do Cerrado, Topázio, Acaiá 474-19 and Bourbon, collected in the southern region of the state of Minas Gerais. The chemical analyses were carried out for reducing and non-reducing sugars. The quality of the beverage was evaluated by sensory analysis. The Artificial Neural Network method used values from chemical analyses as input variables and values from sensory analysis as output values. The multiple linear regression of sensory analysis values, according to the values from chemical analyses, presented a determination coefficient of 0.3106, while the Artificial Neural Network achieved a level of 80.00% of success in the classification of values from the sensory analysis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Työ on kirjallisuustutkimus ja sen tavoitteena on määrittää globaalin jakeluketjun tiedonjaon ongelmat sekä niiden ratkaisu- ja ehkäisymenetelmiä. Työ sisältää seitsemän eri ongelmatyyppiä, joihin löydettiin kolme ratkaisumenetelmää ja kolme ehkäisymenetelmää. Lisäksi työssä käsitellään ongelmia case-yrityksen näkökulmasta. Case-esimerkki toteutettiin haastatteluna. Tiedonjaon ongelmat johtuvat joko inhimillisistä tai teknisistä virheistä. Vakavimmat ongelmat johtuvat usein inhimillisistä syistä eikä tietojärjestelmän uusiminen välttämättä korjaa näitä ongelmia. Tietojärjestelmien oikeaoppinen käyttöönotto ja sisäistäminen antavat yritykselle huomattavia parannuksia tiedonjakoon jakeluketjussa. Tiedonjaon ongelmia ratkaistaessa täytyy usein hyödyntää useampia ratkaisumenetelmiä ja yrityksen liiketoimintamalli täytyy ottaa huomioon. Case-yrityksessä vakavimmat ongelmat liittyivät luottamukseen, kommunikointietiketin puutteeseen, tiedon hukkumiseen ja odottamattomiin tiedonkulun häiriöihin.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Poster at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The number of security violations is increasing and a security breach could have irreversible impacts to business. There are several ways to improve organization security, but some of them may be difficult to comprehend. This thesis demystifies threat modeling as part of secure system development. Threat modeling enables developers to reveal previously undetected security issues from computer systems. It offers a structured approach for organizations to find and address threats against vulnerabilities. When implemented correctly threat modeling will reduce the amount of defects and malicious attempts against the target environment. In this thesis Microsoft Security Development Lifecycle (SDL) is introduced as an effective methodology for reducing defects in the target system. SDL is traditionally meant to be used in software development, principles can be however partially adapted to IT-infrastructure development. Microsoft threat modeling methodology is an important part of SDL and it is utilized in this thesis to find threats from the Acme Corporation’s factory environment. Acme Corporation is used as a pseudonym for a company providing high-technology consumer electronics. Target for threat modeling is the IT-infrastructure of factory’s manufacturing execution system. Microsoft threat modeling methodology utilizes STRIDE –mnemonic and data flow diagrams to find threats. Threat modeling in this thesis returned results that were important for the organization. Acme Corporation now has more comprehensive understanding concerning IT-infrastructure of the manufacturing execution system. On top of vulnerability related results threat modeling provided coherent views of the target system. Subject matter experts from different areas can now agree upon functions and dependencies of the target system. Threat modeling was recognized as a useful activity for improving security.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Monesti yritysjohtajan on vaikea hahmottaa, mitä kaikkia ulottuvuuksia ja menetelmiä suorituskyvyn analysointiin liittyy. Pelkkään talouteen keskittyvä johtaminen edustaa hyvin kapeaa näkökulmaa yrityksen toiminnasta ja voi lopulta johtaa yrityksen vääriin valintoihin ja hyvin kohtalokkaisiin virhearviointeihin. Suorituskyvyn mittaamisella ja analysoimisella saadaan kokonaisvaltainen näkemys yrityksen toiminnasta ja sen tilasta. Yrityksen suorituskykyä pystytään tarkastelemaan hyvin monella tavalla ja erilaisista näkökulmista. Tutkimuksen päätavoitteena on selvittää millainen suorituskyvyn analysointijärjestelmä soveltuu teknologiateollisuuden pk-yritykselle. Alatavoitteena on tutkia millaiset mittaus- ja johtamistarpeet ovat toimialalle tyypillisiä (1) sekä miten toiminnanohjausjärjestelmä ja suori-tuskyvyn mittaristo voidaan integroida toisiinsa (2). Case-yritykselle rakennetaan suorituskyvyn mittaristo ja verrataan sitä toiminnanohjausjärjestelmään sekä selvitetään mittariston tarpeellisuutta Case-yritykselle. Teknologiateollisuuden pk-yrityksille ei voida suoraan määrittää sopivaa suorituskyvyn ana-lysointijärjestelmää. BSC osoittautui kuitenkin parhaimmaksi valinnaksi. BSC pakottaa pk-yrityksiä huomioimaan useampi suorituskyvyn osa-alue. BSC ei myöskään tarvitse montaa mittaria kuvaamaan suorituskyvyn osa-alueita. Tutkimuksessa selvisi hyvin paljon suorituskykyyn vaikuttavia tekijöitä. Projektiluonteisuuden vuoksi case-yrityksen projektiseurantaa kehitettiin ja rakennettiin BSC-pohjainen suorituskyvyn analysointijärjestelmä.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Elementary teachers are expected to prepare students to work efficiently with others, solve complex problems and self-regulate their own learning. Considering the importance of a solid educational foundation in the early years, students would benefit if elementary teachers engaged in scholarly teaching. The purpose of this study was to investigate Boyer’s (1990) four dimensions of scholarship, application, integration, teaching and discovery, to better understand if there is scholarly teaching in elementary education. Four professional teaching documents were analyzed using a hermeneutic orientation. A deductive analysis suggests that we do have scholarly teaching in elementary education, with strong evidence that elementary teachers are scholars of application and integration. An inductive analysis of latent and manifest content suggests that underlying humanistic values run deeply through elementary education driving current curricular, instructional and pedagogical practices.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les nouvelles technologies de l’information et des communications occupent aujourd’hui une place importante dans les entreprises, quelle que soit la taille ou le(s) domaine(s) d’activité de ces dernières. Elles participent de manière positive au développement de la vie économique. Elles sont toutefois à l’origine d’une nouvelle forme de criminalité qui menace la sécurité et l’intégrité des systèmes informatiques dans l’entreprise. Celle-ci est d’une ampleur difficile à évaluer, mais surtout difficile à maîtriser avec les dispositions législatives déjà en place, laissant par là même apparaître qu’une adaptation au niveau juridique est inévitable. Certains pays industrialisés ont ainsi décidé de mettre en place un cadre juridique adéquat pour garantir aux entreprises la sécurité de leurs systèmes informatiques. Notre étude va justement porter sur les dispositifs mis en place par deux systèmes juridiques différents. Forcés de prendre en compte une réalité nouvelle – qui n’existait pas nécessairement il y a plusieurs années –, la France et le Canada ont décidé de modifier respectivement leurs codes pénal et criminel en leur ajoutant des dispositions qui répriment de nouvelles infractions. À travers cet exposé, nous allons analyser les infractions qui portent atteinte à la sécurité du système informatique de l’entreprise à la lumière des outils juridiques mis en place. Nous allons mesurer leur degré d’efficacité face à la réalité informatique. En d’autres termes, il s’agit pour nous de déterminer si le droit va répondre ou non aux besoins de l’informatique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’avancée des infrastructures informatiques a permis l’émergence de la modélisation moléculaire. À cet effet, une multitude de modèles mathématiques sont aujourd’hui disponibles pour simuler différents systèmes chimiques. À l’aide de la modélisation moléculaire, différents types d’interactions chimiques ont été observés. À partir des systèmes les plus simples permettant l’utilisation de modèles quantiques rigoureux, une série d’approximations a été considérée pour rendre envisageable la simulation de systèmes moléculaires de plus en plus complexes. En premier lieu, la théorie de la fonctionnelle de densité dépendante du temps a été utilisée pour simuler les énergies d’excitation de molécules photoactives. De manière similaire, la DFT indépendante du temps a permis la simulation du pont hydrogène intramoléculaire de structures analogues au 1,3,5-triazapentadiène et la rationalisation de la stabilité des états de transition. Par la suite, la dynamique moléculaire et la mécanique moléculaire ont permis de simuler les interactions d’un trimère d’acide cholique et d’un pyrène dans différents solvants. Cette même méthodologie a été utilisée pour simuler les interactions d’un rotaxane-parapluie à l’interface d’un système biphasique. Finalement, l’arrimage moléculaire et les fonctions de score ont été utilisés pour simuler les interactions intermoléculaires entre une protéine et des milliers de candidats moléculaires. Les résultats ont permis de mettre en place une stratégie de développement d’un nouvel inhibiteur enzymatique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans l’espace réel, l’identité d’une personne est clairement circonscrite à l’état civil et pleinement protégée par le droit interne des pays. Alors que dans le cyberespace, les contours de la notion sont plutôt flous, voire incertains. Le développement du commerce électronique et la croissance des transactions en ligne ont donné naissance au « crime » de l’usurpation d’identité. Et si l’usurpation d’identité a pu émerger, c’est grâce à la spécificité du médium, qui s’est avéré un terrain fertile aux abus des usurpateurs d’identité. Ce présent article étudie et analyse la fraude, le vol et l’escroquerie en tant qu’infractions économiques commises dans le cyberespace par le biais du système informatique. Il constate la désuétude et l’inefficacité des infractions prévues dans le droit pénal canadien relativement à l’incrimination du crime de l’usurpation d’identité et propose une solution basée sur des approches réglementaires, législatives et techniques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En aquest projecte es vol implementar una llibreria en Java, que proporcioni les eines necessàries per a crear diagrames i esquemes. Es vol proporcionar a la llibreria un conjunt d’objectes bàsics, també mètodes i funcionalitats suficients per a gestionar aquests objectes. Per altra part, es vol implementar una aplicació per a dissenyar diagrames Entitat-Relació que utilitzi aquesta llibreria