976 resultados para Instrument validation


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’Inventaire des risques et des besoins liés aux facteurs criminogènes (IRBC) est un instrument utilisé depuis le début des années 1990 pour évaluer les risques de récidive des jeunes contrevenants québécois. Il est le produit d’une collaboration du Québec avec l’Ontario, survenue dans le cadre de travaux de recherche effectués sur les instruments d’évaluation du risque de récidive des jeunes contrevenants. L’IRBC est donc le seul instrument précisément conçu pour évaluer les risques de récidive des jeunes contrevenants québécois et il n’a jamais fait l’objet d’une démarche visant à tester sa validité prédictive. Le but de ce projet de mémoire est de tester la validité prédictive de l’IRBC. Des analyses de courbes ROC et des analyses de survie ont été utilisées pour tester les propriétés métriques de l’instrument. Ces analyses suggèrent que, dans l’ensemble, l’IRBC arrive à prédire la récidive de façon acceptable. Quatre des huit grands domaines associés à la récidive, communément appelé BIG FOUR, seraient des prédicteurs modérés de la récidive lorsque testés avec les données issues de l’IRBC. Il s’agit des domaines Antécédents, Pairs, Personnalité-Comportements, et Attitudes-Tendances. Des aspects en lien avec la fidélité de l’instrument témoignent toutefois d’irrégularités dans le processus d’évaluation, ce qui interroge le niveau de rigueur maintenu au jour le jour par les professionnels. Des aspects en lien avec la fidélité de l’IRBC demeureraient à investiguer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Docteur en psychologie, option psychologie clinique (D.Psy.)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This research is aimed at developing an instrument for measuring human resource quality in organizations. The researcher has developed the instrument for measuring HRQ based on extensive literature survey and expert opinion. Statistical validity of the Instrument has also been established. This instrument was used to measure the changes in Human Resource Quality in selected organizations wherein quality management practices are being implemented. Data collected was analyzed and presented in this thesis. It has been found that there are significant changes in all the indicators of Human Resource Quality. There is improvement in Cultural Change Index(CCI), Quality of Work Life Index(QWLI) and Employee Satisfaction Index(ESI). The Human Resource Quality index has also increased significantly in all the organizations. It has been observed from the study that implementation of TQM leads to significant changes in Human Resource Quality. This instrument is capable of measuring minor variations in each indicator of HRQ and can be used to identify areas of weakness and strength in the case of Human Resource Quality. The instrument can further be modified by future research. This research work provided excellent opportunities for the researcher for self-development and has made him confident to undertake such activities for the benefit of the learning community.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

National Centre for Aquatic Animal Health, Cochin University of Science and Technology

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.This dissertation contributes to an architecture oriented code validation, error localization and optimization technique assisting the embedded system designer in software debugging, to make it more effective at early detection of software bugs that are otherwise hard to detect, using the static analysis of machine codes. The focus of this work is to develop methods that automatically localize faults as well as optimize the code and thus improve the debugging process as well as quality of the code.Validation is done with the help of rules of inferences formulated for the target processor. The rules govern the occurrence of illegitimate/out of place instructions and code sequences for executing the computational and integrated peripheral functions. The stipulated rules are encoded in propositional logic formulae and their compliance is tested individually in all possible execution paths of the application programs. An incorrect sequence of machine code pattern is identified using slicing techniques on the control flow graph generated from the machine code.An algorithm to assist the compiler to eliminate the redundant bank switching codes and decide on optimum data allocation to banked memory resulting in minimum number of bank switching codes in embedded system software is proposed. A relation matrix and a state transition diagram formed for the active memory bank state transition corresponding to each bank selection instruction is used for the detection of redundant codes. Instances of code redundancy based on the stipulated rules for the target processor are identified.This validation and optimization tool can be integrated to the system development environment. It is a novel approach independent of compiler/assembler, applicable to a wide range of processors once appropriate rules are formulated. Program states are identified mainly with machine code pattern, which drastically reduces the state space creation contributing to an improved state-of-the-art model checking. Though the technique described is general, the implementation is architecture oriented, and hence the feasibility study is conducted on PIC16F87X microcontrollers. The proposed tool will be very useful in steering novices towards correct use of difficult microcontroller features in developing embedded systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Measurement is the act or the result of a quantitative comparison between a given quantity and a quantity of the same kind chosen as a unit. It is generally agreed that all measurements contain errors. In a measuring system where both a measuring instrument and a human being taking the measurement using a preset process, the measurement error could be due to the instrument, the process or the human being involved. The first part of the study is devoted to understanding the human errors in measurement. For that, selected person related and selected work related factors that could affect measurement errors have been identified. Though these are well known, the exact extent of the error and the extent of effect of different factors on human errors in measurement are less reported. Characterization of human errors in measurement is done by conducting an experimental study using different subjects, where the factors were changed one at a time and the measurements made by them recorded. From the pre‐experiment survey research studies, it is observed that the respondents could not give the correct answers to questions related to the correct values [extent] of human related measurement errors. This confirmed the fears expressed regarding lack of knowledge about the extent of human related measurement errors among professionals associated with quality. But in postexperiment phase of survey study, it is observed that the answers regarding the extent of human related measurement errors has improved significantly since the answer choices were provided based on the experimental study. It is hoped that this work will help users of measurement in practice to better understand and manage the phenomena of human related errors in measurement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Globalization and liberalization, with the entry of many prominent foreign manufacturers, changed the automobile scenario in India, since early 1990‟s. Manufacturers such as Ford, General Motors, Honda, Toyota, Suzuki, Hyundai, Renault, Mitsubishi, Benz, BMW, Volkswagen and Nissan set up their manufacturing units in India in joint venture with their Indian counterpart companies, by making use of the Foreign Direct Investment policy of the Government of India, These manufacturers started capturing the hearts of Indian car customers with their choice of technological and innovative product features, with quality and reliability. With the multiplicity of choices available to the Indian passenger car buyers, it drastically changed the way the car purchase scenario in India and particularly in the State of Kerala. This transformed the automobile scene from a sellers‟ market to buyers‟ market. Car customers started developing their own personal preferences and purchasing patterns, which were hitherto unknown in the Indian automobile segment. The main purpose of this paper is to come up with the identification of possible parameters and a framework development, that influence the consumer purchase behaviour patterns of passenger car owners in the State of Kerala, so that further research could be done, based on the framework and the identified parameters

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cochin University Of Science And Technology

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das Management von Kundenbeziehungen hat sich in der klassischen Ökonomie unter dem Begriff »Customer Relationship Management« (kurz: CRM) etabliert und sich in den letzten Jahren als erfolgreicher Ansatz erwiesen. In der grundlegenden Zielsetzung, wertvolle, d.h. profitable und kreditwürdige Kunden an ein Unternehmen zu binden, kommen Business-Intelligence Technologien zur Generierung von Kundenwissen aus kundenbezogenen Daten zum Einsatz. Als technologische Plattform der Kommunikation und Interaktion gewähren Business Communities einen direkten Einblick in die Gedanken und Präferenzen der Kunden. Von Business-Communitybasiertem Wissen der Kunden und über Kunden können individuelle Kundenbedürfnisse, Verhaltensweisen und damit auch wertvolle (potenzielle, profilgleiche) Kunden abgeleitet werden, was eine differenziertere und selektivere Behandlung der Kunden möglich macht. Business Communities bieten ein umfassendes Datenpotenzial, welches jedoch bis dato für das CRM im Firmenkundengeschäft respektive die Profilbildung noch nicht genutzt wird. Synergiepotenziale von der Datenquelle "Business Community" und der Technologie "Business Intelligence" werden bislang vernachlässigt. An dieser Stelle setzt die Arbeit an. Das Ziel ist die sinnvolle Zusammenführung beider Ansätze zu einem erweiterten Ansatz für das Management der irmenkundenbeziehung. Dazu wird ein BIgestütztes CRM-Konzept für die Generierung, Analyse und Optimierung von Kundenwissen erarbeitet, welches speziell durch den Einsatz einer B2B-Community gewonnen und für eine Profilbildung genutzt wird. Es soll durch die Anbindung von Fremddatenbanken Optimierung finden: In den Prozess der Wissensgenerierung fließen zur Datenqualifizierung und -quantifizierung externe (Kunden-) Daten ein, die von Fremddatenbanken (wie z.B. Information Provider, Wirtschaftsauskunftsdienste) bereitgestellt werden. Der Kern dieser Zielsetzung liegt in der umfassenden Generierung und stetigen Optimierung von Wissen, das den Aufbau einer langfristigen, individuellen und wertvollen Kundenbeziehung unterstützen soll.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Der Aufbau Lernender Organisationen ist eine notwendige Antwort auf die zentrale Herausforderung am Ausgang des 20. Jahrhunderts: Unser aller Überleben wird davon abhängen, ob wir den Wandel von der belehrten zur lernenden Gesellschaft schaffen, den Wandel von der bürokratischen Verwaltungsgesellschaft zur offenen Gestaltungsgemeinschaft. Aufgrund der wachsenden Komplexität und des schnelle Wandels sind bürokratische Organisationen alten Typs überfordert, rechtzeitig Antworten zu finden, die der Vielfalt der Problemstellungen gerecht werden. Deshalb müssen sie sich grundlegend wandeln oder sie werden untergehen. Die Schlüsselfrage dabei lautet: Wie können wir die brachliegenden kreativen Ressourcen von Einzelnen und Gruppen erschließen und unsere Organisationen so umbauen, daß notwendiger Wandel nicht Widerstand hervorruft, sondern zu einem Bedürfnis aller wird? Eine vielversprechende Antwort auf diese Frage bietet das hierzulande fast unbekannte Instrument der Zukunftskonferenz.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Usually, psychometricians apply classical factorial analysis to evaluate construct validity of order rank scales. Nevertheless, these scales have particular characteristics that must be taken into account: total scores and rank are highly relevant