809 resultados para Service quality measurement


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La douleur est une expérience humaine des plus universelles et d’une riche variabilité culturelle. Néanmoins, il y a peu d’études sur ce sujet en général et qui plus est, la recherche sur la douleur chez les Amérindiens est presque inexistante. L’expérience de douleur de quelques 28 millions d’Amérindiens en Amérique du Sud, dont les Quichuas (Inca), est encore méconnue. Cette recherche interdisciplinaire, psychophysiologique et anthropologique, vise deux buts : (1) Étudier les effets de type analgésique du défi verbal culturellement significatif chez les Quichuas ; et (2) Faire un survol de leur système de croyances concernant la douleur, leur façon de la percevoir, de la décrire, et de la contrôler. Pour le volet expérimental, on a recruté 40 hommes en bonne santé. Les volontaires étaient assignés de façon alternée soit au groupe expérimental (20) soit au groupe contrôle (20). On a enregistré chez eux les seuils de la douleur, et celui de la tolérance à la douleur. Chez le groupe expérimental, on a, de plus, mesuré le seuil de la tolérance à la douleur avec défi verbal. La douleur était provoquée par pression au temporal, et mesurée à l’aide d’un algésimètre. Après chaque seuil, on a administré une échelle visuelle analogique. Pour le deuxième volet de l’étude, un groupe de 40 participants (15 femmes et 25 hommes) a répondu verbalement à un questionnaire en quichua sur la nature de la douleur. Celui-ci touchait les notions de cause, de susceptibilité, les caractéristiques de la douleur, les syndromes douloureux, les méthodes de diagnostic et de traitement, ainsi que la prévention. Notre étude a révélé que les participants ayant reçu le défi verbal ont présenté une tolérance accrue à la douleur statistiquement significative. Les valeurs de l’échelle visuelle analogique ont aussi augmenté chez ce groupe, ce qui indique un état accru de conscience de la douleur. L’expérience de la douleur chez les Quichuas est complexe et les stratégies pour la combattre sont sophistiquées. Selon leur théorie, le vécu d’émotions intenses, dues à des évènements de la vie, à l’existence d’autres maladies qui affectent la personne de façon concomitante, et aux esprits présents dans la nature ou chez d’autres personnes joue un rôle dans l’origine, le diagnostic et le traitement de la douleur. Les Quichuas accordent une grande crédibilité à la biomédecine ainsi qu’à la médecine traditionnelle quichua. Ils perçoivent la famille et le voisinage comme étant des sources supplémentaires de soutien. Il ressort également que les Quichuas préfèrent un service de santé de type inclusif et pluraliste. En conclusion, cette étude a révélé que des mots culturellement significatifs ayant une connotation de défi semblent augmenter la tolérance à la douleur chez les Quichuas. Il s’agit de la première étude à documenter les effets analgésiques de la parole. D’autre part, cette étude souligne également la potentielle utilité clinique de connaître le système quichua de croyances entourant la douleur et le contrôle de cette dernière. Ceci s’avère particulièrement utile pour les cliniciens soucieux d’offrir des soins de santé de meilleure qualité, culturellement adaptés, dans les Andes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est le type de déformation musculosquelettique le plus fréquent dans la population pédiatrique, pour une prévalence d’environ 2,0%. Depuis l’arrêt des programmes scolaires de dépistage de la SIA dans les années 1980 au Canada, nous ne disposions d’aucune donnée sur l’utilisation des services de santé par les patients présentant une SIA suspectée. En l’absence de tels programmes, des changements dans les patrons d’utilisation des services spécialisés d’orthopédie pédiatrique sont anticipés. La thèse a donc pour but d’étudier la pertinence de la référence dans ces services des jeunes avec SIA suspectée. Elle est structurée autour de trois principaux objectifs. 1) Valider un instrument de mesure de la morbidité perçue (perception des symptômes) dans la clientèle d’orthopédie pédiatrique; 2) Étudier la relation entre la morbidité perçue par les profanes (le jeune et le parent) et la morbidité objectivée par les experts; 3) Caractériser les itinéraires de soins des patients avec SIA suspectée, de façon à en élaborer une taxonomie et à analyser les relations entre ceux-ci et la pertinence de la référence. En 2006-2007, une vaste enquête a été réalisée dans les cinq cliniques d’orthopédie pédiatrique du Sud-Ouest du Québec : 831 patients référés ont été recrutés. Ils furent classés selon des critères de pertinence de la référence (inappropriée, appropriée ou tardive) définis en fonction de l’amplitude de la courbe rachidienne et de la maturité squelettique à cette première visite. La morbidité perçue par les profanes a été opérationnalisée par la gravité, l’urgence, les douleurs, l’impact sur l’image de soi et la santé générale. L’ensemble des consultations médicales et paramédicales effectuées en amont de la consultation en orthopédie pédiatrique a été documenté par questionnaire auprès des familles. En s’appuyant sur le Modèle comportemental de l’utilisation des services d’Andersen, les facteurs (dits de facilitation et de capacité) individuels, relatifs aux professionnels et au système ont été considérés comme variables d’ajustement dans l’étude des relations entre la morbidité perçue ou les itinéraires de soins et la pertinence de la référence. Les principales conclusions de cette étude sont : i) Nous disposons d’instruments fidèles (alpha de Cronbach entre 0,79 et 0,86) et valides (validité de construit, concomitante et capacité discriminante) pour mesurer la perception de la morbidité dans la population adolescente francophone qui consulte en orthopédie pédiatrique; ii) Les profanes jouent un rôle important dans la suspicion de la scoliose (53% des cas) et leur perception de la morbidité est directement associée à la morbidité objectivée par les professionnels; iii) Le case-mix actuel en orthopédie est jugé non optimal en regard de la pertinence de la référence, les mécanismes actuels entraînant un nombre considérable de références inappropriées (38%) et tardives (18%) en soins spécialisés d’orthopédie pédiatrique; iv) Il existe une grande diversité de professionnels par qui sont vus les jeunes avec SIA suspectée ainsi qu’une variabilité des parcours de soins en amont de la consultation en orthopédie, et v) La continuité des soins manifestée dans les itinéraires, notamment via la source régulière de soins de l’enfant, est favorable à la diminution des références tardives (OR=0,32 [0,17-0,59]). Les retombées de cette thèse se veulent des contributions à l’avancement des connaissances et ouvrent sur des propositions d’initiatives de transfert des connaissances auprès des professionnels de la première ligne. De telles initiatives visent la sensibilisation à cette condition de santé et le soutien à la prise de décision de même qu’une meilleure coordination des demandes de consultation pour une référence appropriée et en temps opportun.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de maîtrise en sciences infirmières option administration des services infirmiers

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The performance of circular, rectangular and cross irises for the coupling of microwave power to rectangular waveguide cavity resonators is discussed. For the measurement of complex permittivity of materials using cavity perturbation techniques, rectangular cavities with high Q-factors are required. Compared to the conventional rectangular and circular irises, the cross Iris coupling structure provides very high loaded quality factor for all the resonant frequencies. The proposes cross iris coupling structure enhances the accuracy of complex permittivity measurements.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The application of computer vision based quality control has been slowly but steadily gaining importance mainly due to its speed in achieving results and also greatly due to its non- destnictive nature of testing. Besides, in food applications it also does not contribute to contamination. However, computer vision applications in quality control needs the application of an appropriate software for image analysis. Eventhough computer vision based quality control has several advantages, its application has limitations as to the type of work to be done, particularly so in the food industries. Selective applications, however, can be highly advantageous and very accurate.Computer vision based image analysis could be used in morphometric measurements of fish with the same accuracy as the existing conventional method. The method is non-destructive and non-contaminating thus providing anadvantage in seafood processing.The images could be stored in archives and retrieved at anytime to carry out morphometric studies for biologists.Computer vision and subsequent image analysis could be used in measurements of various food products to assess uniformity of size. One product namely cutlet and product ingredients namely coating materials such as bread crumbs and rava were selected for the study. Computer vision based image analysis was used in the measurements of length, width and area of cutlets. Also the width of coating materials like bread crumbs was measured.Computer imaging and subsequent image analysis can be very effectively used in quality evaluations of product ingredients in food processing. Measurement of width of coating materials could establish uniformity of particles or the lack of it. The application of image analysis in bacteriological work was also done

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Measurement is the act or the result of a quantitative comparison between a given quantity and a quantity of the same kind chosen as a unit. It is generally agreed that all measurements contain errors. In a measuring system where both a measuring instrument and a human being taking the measurement using a preset process, the measurement error could be due to the instrument, the process or the human being involved. The first part of the study is devoted to understanding the human errors in measurement. For that, selected person related and selected work related factors that could affect measurement errors have been identified. Though these are well known, the exact extent of the error and the extent of effect of different factors on human errors in measurement are less reported. Characterization of human errors in measurement is done by conducting an experimental study using different subjects, where the factors were changed one at a time and the measurements made by them recorded. From the pre‐experiment survey research studies, it is observed that the respondents could not give the correct answers to questions related to the correct values [extent] of human related measurement errors. This confirmed the fears expressed regarding lack of knowledge about the extent of human related measurement errors among professionals associated with quality. But in postexperiment phase of survey study, it is observed that the answers regarding the extent of human related measurement errors has improved significantly since the answer choices were provided based on the experimental study. It is hoped that this work will help users of measurement in practice to better understand and manage the phenomena of human related errors in measurement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

To provide maintenance engineering community with a model named “Maintenance quality function deployment” (MQFD) for nourishing the synergy of quality function deployment (QFD) and total productive maintenance (TPM) and enhancing maintenance quality of products and equipment.The principles of QFD and TPM were studied. MQFD model was designed by coupling these two principles. The practical implementation feasibility of MQFD model was checked in an automobile service station.Both QFD and TPM are popular approaches and several benefits of implementing them have been reported worldwide. Yet the world has not nourished the synergic power of integrating them. The MQFD implementation study reported in this paper has revealed its practical validity

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A real-time analysis of renewable energy sources, such as arable crops, is of great importance with regard to an optimised process management, since aspects of ecology and biodiversity are considered in crop production in order to provide a sustainable energy supply by biomass. This study was undertaken to explore the potential of spectroscopic measurement procedures for the prediction of potassium (K), chloride (Cl), and phosphate (P), of dry matter (DM) yield, metabolisable energy (ME), ash and crude fibre contents (ash, CF), crude lipid (EE), nitrate free extracts (NfE) as well as of crude protein (CP) and nitrogen (N), respectively in pretreated samples and undisturbed crops. Three experiments were conducted, one in a laboratory using near infrared reflectance spectroscopy (NIRS) and two field spectroscopic experiments. Laboratory NIRS measurements were conducted to evaluate to what extent a prediction of quality parameters is possible examining press cakes characterised by a wide heterogeneity of their parent material. 210 samples were analysed subsequent to a mechanical dehydration using a screw press. Press cakes serve as solid fuel for thermal conversion. Field spectroscopic measurements were carried out with regard to further technical development using different field grown crops. A one year lasting experiment over a binary mixture of grass and red clover examined the impact of different degrees of sky cover on prediction accuracies of distinct plant parameters. Furthermore, an artificial light source was used in order to evaluate to what extent such a light source is able to minimise cloud effects on prediction accuracies. A three years lasting experiment with maize was conducted in order to evaluate the potential of off-nadir measurements inside a canopy to predict different quality parameters in total biomass and DM yield using one sensor for a potential on-the-go application. This approach implements a measurement of the plants in 50 cm segments, since a sensor adjusted sideways is not able to record the entire plant height. Calibration results obtained by nadir top-of-canopy reflectance measurements were compared to calibration results obtained by off-nadir measurements. Results of all experiments approve the applicability of spectroscopic measurements for the prediction of distinct biophysical and biochemical parameters in the laboratory and under field conditions, respectively. The estimation of parameters could be conducted to a great extent with high accuracy. An enhanced basis of calibration for the laboratory study and the first field experiment (grass/clover-mixture) yields in improved robustness of calibration models and allows for an extended application of spectroscopic measurement techniques, even under varying conditions. Furthermore, off-nadir measurements inside a canopy yield in higher prediction accuracies, particularly for crops characterised by distinct height increment as observed for maize.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper provides an overview of an Enterprise Engineering method called IEM (Integrated Enterprise Modeling) and it describes the usage of SIX SIGMA approach for performance measurement of an enterprise. Based on these two instruments a methodology including procedure and tools is developed, which allows enterprises to define their adequate quality criteria for performance, to measure performance and quality and to derive reasonable actions to take for optimization. Determination of adequate quality and performance criteria and reasonable measures for the enterprise organization means “Quality Governance”.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the vision of Mark Weiser on ubiquitous computing, computers are disappearing from the focus of the users and are seamlessly interacting with other computers and users in order to provide information and services. This shift of computers away from direct computer interaction requires another way of applications to interact without bothering the user. Context is the information which can be used to characterize the situation of persons, locations, or other objects relevant for the applications. Context-aware applications are capable of monitoring and exploiting knowledge about external operating conditions. These applications can adapt their behaviour based on the retrieved information and thus to replace (at least a certain amount) the missing user interactions. Context awareness can be assumed to be an important ingredient for applications in ubiquitous computing environments. However, context management in ubiquitous computing environments must reflect the specific characteristics of these environments, for example distribution, mobility, resource-constrained devices, and heterogeneity of context sources. Modern mobile devices are equipped with fast processors, sufficient memory, and with several sensors, like Global Positioning System (GPS) sensor, light sensor, or accelerometer. Since many applications in ubiquitous computing environments can exploit context information for enhancing their service to the user, these devices are highly useful for context-aware applications in ubiquitous computing environments. Additionally, context reasoners and external context providers can be incorporated. It is possible that several context sensors, reasoners and context providers offer the same type of information. However, the information providers can differ in quality levels (e.g. accuracy), representations (e.g. position represented in coordinates and as an address) of the offered information, and costs (like battery consumption) for providing the information. In order to simplify the development of context-aware applications, the developers should be able to transparently access context information without bothering with underlying context accessing techniques and distribution aspects. They should rather be able to express which kind of information they require, which quality criteria this information should fulfil, and how much the provision of this information should cost (not only monetary cost but also energy or performance usage). For this purpose, application developers as well as developers of context providers need a common language and vocabulary to specify which information they require respectively they provide. These descriptions respectively criteria have to be matched. For a matching of these descriptions, it is likely that a transformation of the provided information is needed to fulfil the criteria of the context-aware application. As it is possible that more than one provider fulfils the criteria, a selection process is required. In this process the system has to trade off the provided quality of context and required costs of the context provider against the quality of context requested by the context consumer. This selection allows to turn on context sources only if required. Explicitly selecting context services and thereby dynamically activating and deactivating the local context provider has the advantage that also the resource consumption is reduced as especially unused context sensors are deactivated. One promising solution is a middleware providing appropriate support in consideration of the principles of service-oriented computing like loose coupling, abstraction, reusability, or discoverability of context providers. This allows us to abstract context sensors, context reasoners and also external context providers as context services. In this thesis we present our solution consisting of a context model and ontology, a context offer and query language, a comprehensive matching and mediation process and a selection service. Especially the matching and mediation process and the selection service differ from the existing works. The matching and mediation process allows an autonomous establishment of mediation processes in order to transfer information from an offered representation into a requested representation. In difference to other approaches, the selection service selects not only a service for a service request, it rather selects a set of services in order to fulfil all requests which also facilitates the sharing of services. The approach is extensively reviewed regarding the different requirements and a set of demonstrators shows its usability in real-world scenarios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Our goal in this paper is to assess reliability and validity of egocentered network data using multilevel analysis (Muthen, 1989, Hox, 1993) under the multitrait-multimethod approach. The confirmatory factor analysis model for multitrait-multimethod data (Werts & Linn, 1970; Andrews, 1984) is used for our analyses. In this study we reanalyse a part of data of another study (Kogovšek et al., 2002) done on a representative sample of the inhabitants of Ljubljana. The traits used in our article are the name interpreters. We consider egocentered network data as hierarchical; therefore a multilevel analysis is required. We use Muthen's partial maximum likelihood approach, called pseudobalanced solution (Muthen, 1989, 1990, 1994) which produces estimations close to maximum likelihood for large ego sample sizes (Hox & Mass, 2001). Several analyses will be done in order to compare this multilevel analysis to classic methods of analysis such as the ones made in Kogovšek et al. (2002), who analysed the data only at group (ego) level considering averages of all alters within the ego. We show that some of the results obtained by classic methods are biased and that multilevel analysis provides more detailed information that much enriches the interpretation of reliability and validity of hierarchical data. Within and between-ego reliabilities and validities and other related quality measures are defined, computed and interpreted

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper presents a new charging scheme for cost distribution along a point-to-multipoint connection when destination nodes are responsible for the cost. The scheme focus on QoS considerations and a complete range of choices is presented. These choices go from a safe scheme for the network operator to a fair scheme to the customer. The in-between cases are also covered. Specific and general problems, like the incidence of users disconnecting dynamically is also discussed. The aim of this scheme is to encourage the users to disperse the resource demand instead of having a large number of direct connections to the source of the data, which would result in a higher than necessary bandwidth use from the source. This would benefit the overall performance of the network. The implementation of this task must balance between the necessity to offer a competitive service and the risk of not recovering such service cost for the network operator. Throughout this paper reference to multicast charging is made without making any reference to any specific category of service. The proposed scheme is also evaluated with the criteria set proposed in the European ATM charging project CANCAN

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper, we consider the ATM networks in which the virtual path concept is implemented. The question of how to multiplex two or more diverse traffic classes while providing different quality of service requirements is a very complicated open problem. Two distinct options are available: integration and segregation. In an integration approach all the traffic from different connections are multiplexed onto one VP. This implies that the most restrictive QOS requirements must be applied to all services. Therefore, link utilization will be decreased because unnecessarily stringent QOS is provided to all connections. With the segregation approach the problem can be much simplified if different types of traffic are separated by assigning a VP with dedicated resources (buffers and links). Therefore, resources may not be efficiently utilized because no sharing of bandwidth can take place across the VP. The probability that the bandwidth required by the accepted connections exceeds the capacity of the link is evaluated with the probability of congestion (PC). Since the PC can be expressed as the CLP, we shall simply carry out bandwidth allocation using the PC. We first focus on the influence of some parameters (CLP, bit rate and burstiness) on the capacity required by a VP supporting a single traffic class using the new convolution approach. Numerical results are presented both to compare the required capacity and to observe which conditions under each approach are preferred