819 resultados para Minimal entropy martingale measure
Resumo:
The objectives of the present study were to explore three components of organizational commitment (affective [AC], normative [NC] and continuance [CC] commitment; Allen & Meyer, 1991), perceived relatedness (Oeci & Ryan, 1985; 2002), and behavioural intention (Ajzen, 2002) within the context of volunteer track and field officiating. The objectives were examined in a 2-phase study. Ouring phase 1, experts (N = 10) with domain familiarity assessed the item content relevance and representation of modified organizational commitment (OC; Meyer, Allen & Smith, 1993) and perceived relatedness (La Guardia, Oeci, Ryan & Couchman, 2000) items. Fourteen of 26 (p < .05) items were relevant (Aiken's coefficient V) and NC (M = 3.88, SO = .64), CC (M = 3.63, SD = .52), and relatedness (M = 4.00, SD = .93) items had mean item content-representation ratings of either "good" or "very good" while AC (M = 2.50, SD = 0.58) was rated "fair". Participants in phase 2 (N = 80) responded to items measuring demographic variables, perceptions of OC to Athletics Canada, perceived relatedness to other track and field officials, and a measure of intention (yiu, Au & Tang, 2001) to continue officiating. Internal consistency reliability estimates (Cronbach's (1951) coefficient alpha) were as follows: (a) AC = .78, (b) CC = .85, (c) NC = .80 (d) perceived relatedness = .70 and, (e) intention = .92 in the present sample. Results suggest that the track and field officials felt only minimally committed to Athletics Canada (AC M = 3.90, SD = 1.23; NC M = 2.47, SD = 1.25; CC M = 3.32; SD = 1.34) and that their relationships with other track and field officials were strongly endorsed (M = 5.86, SD = 0.74). Bivariate correlations (Pearson r) indicated that perceived relatedness to other track and field officials demonstrated the strongest relationship with intention to continue officiating (r = .346, p < .05), while dimensions of OC were not significantly related to intention (all p's > .05). Together perceived relatedness (j3 = .339, p = .004), affective commitment (j3 = -.1 53, p = .308), normative commitment (j3 = -.024, p = .864) and continuance commitment (j3 = .186, P = .287) contribute to the prediction of intention to continued officiating (K = .139). These relationships remained unaffected by the inclusion of demographic (j3age = -.02; P years with Athletics Canada = -.13; bothp's > .05) or alternative commitment (j3sport = -.19; P role = .15; Pathletes = .20; all p' s > .05) considerations. Three open-ended questions elicited qualitative responses regarding participants' reasons for officiating. Responses reflecting initial reasons for officiating formed these higher order themes: convenience, helping reasons, extension of role, and intrinsic reasons. Responses reflecting reasons for continuing to officiate formed these higher order themes: track and field, to help, and personal benefits. Responses reflecting changes that would influence continued involvement were: political, organizational/structural, and personal. These results corroborate the findings of previous investigations which state that the reasons underpinning volunteer motivations change over time (Cuskelly et al., 2002). Overall, the results of this study suggest that track and field officials feel minimal commitment to the organization of Athletics Canada but a stronger bond with their fellow officials. Moreover, the degree to which track and field officials feel meaningfully connected to one another appears to exert a positive influence on their intentions to continue officiating. As such, it is suggested that in order to promote continued involvement, Athletics Canada increases its focus on fostering environments promoting positive interactions among officials.
Resumo:
Adults' expert face recognition is limited to the kinds of faces they encounter on a daily basis (typically upright human faces of the same race). Adults process own-race faces holistically (Le., as a gestalt) and are exquisitely sensitive to small differences among faces in the spacing of features, the shape of individual features and the outline or contour of the face (Maurer, Le Grand, & Mondloch, 2002), however this expertise does not seem to extend to faces from other races. The goal of the current study was to investigate the extent to which the mechanisms that underlie expert face processing of own-race faces extend to other-race faces. Participants from rural Pennsylvania that had minimal exposure to other-race faces were tested on a battery of tasks. They were tested on a memory task, two measures of holistic processing (the composite task and the part/whole task), two measures of spatial and featural processing (the JanelLing task and the scrambledlblurred faces task) and a test of contour processing (JanelLing task) for both own-and other-race faces. No study to date has tested the same participants on all of these tasks. Participants had minimal experience with other-race faces; they had no Chinese family members, friends or had ever traveled to an Asian country. Results from the memory task did not reveal an other-race effect. In the present study, participants also demonstrated holistic processing of both own- and other-race faces on both the composite task and the part/whole task. These findings contradict previous findings that Caucasian adults process own-race faces more holistically than other-race faces. However participants did demonstrate an own-race advantage for processing the spacing among features, consistent with two recent studies that used different manipulations of spacing cues (Hayward et al. 2007; Rhodes et al. 2006). They also demonstrated an other-race effect for the processing of individual features for the Jane/Ling task (a direct measure of featural processing) consistent with previous findings (Rhodes, Hayward, & Winkler, 2006), but not for the scrambled faces task (an indirect measure offeatural processing). There was no own-race advantage for contour processing. Thus, these results lead to the conclusion that individuals may show less sensitivity to the appearance of individual features and the spacing among them in other-race faces, despite processing other-race faces holistically.
Resumo:
The present research study was designed to test a contingency model of job satisfaction based on participation in decision making as the antecedent variable and job involvement as the intervening variable. The instruments used to measure the variables were the participation in decision making scale developed by Siegel and Ruh (1973), the job involvement scale by Lodahl and Kejner (1965) and the job satisfaction construct derived from Hoppock (1935). The findings indicate that statistically significant correlations do exist for the 1995 educators surveyed in this study. Educators who reported high levels of participation in decision making consistently reported high levels of job involvement (p!: 0.001). Also, teachers reporting high levels of job involvement consistently scored high on their levels of job satis faction (p!: 0.001). All major hypotheses were sUPFOrted by the data. Through exploratory hypotheses, the study attempted to develop statements of relationships between criteria of job satisfaction and sex and marital status of employees in the system. The hypotheses received only minimal support, but the results did highlight the impracticability of attempting to develop any such relationships without using definite personality and situational variables as moderators. Differences between male and female socialization, sex discrimination and multiplicity of roles are briefly discussed as possible explanations for the reported findings.
Resumo:
Objectlve:--This study examined the intraclass reliability· of different measures of the
excitability of the Hoffmann reflex, derived from stimulus-response curves. The slope of the
regression line of the H-reflex stimulus-response curve advocated by Funase et al. (1994) was
also compared to the peak of the first derivative of the H-reflex stimulus-response curve
(dHIdVmax), a new measure introduced in this investigation. A secondary purpose was to explore
the possibility of mood as a covariate when measuring excitability of the H-reflex arc.
Methods: The H-reflex amplitude at a stimulus intensity corresponding to 5% of the
maximum M-wave (Mmax) is an established measure that was used as an additional basis of
comparison. The H-reflex was elicited in the soleus for 24 subjects (12 males and 12 females)
on five separate days. Vibration was applied to the Achilles tendon prior to stimulation to test
the sensitivity of the measures on test day four. The means of five evoked potentials at each
gradually increasing intensity, from below H-reflex threshold to above Mmax, were used to create
both the H-reflex and M-wave stimulus response curves for each subject across test days. The
mood of the subjects was assessed using the Subjective Exercise Experience Scale (SEES) prior
to the stimulation protocol each day.
Results: There was a modest decrease in all H-reflex measures from the first to third test day,
but it was non-significant (P's>0.05). All measures of the H-reflex exhibited a profound
reduction following vibration on test day four, and then returned to baseline levels on test day
five (P's<0.05). The intraclass correlation coefficient (ICC) for H-reflex amplitude at 5% of
Mmax was 0.85. The ICC for the slope of the regression line was 0.79 while it was 0.89 for
dH/dVmax. Maximum M-wave amplitude had an ICC of 0.96 attesting to careful methodological
controls. The SEES subscales of fatigue and psychological well-being remained unchanged
IV
across the five days. The psychological distress subscale (P
Resumo:
As a result of increased acid precipitation, the pH of a large
number of Canadian Shield lakes has been falling. Prior to this study
there was no documentation available to explain the history of lake
acidification for the Algoma area lakes. In order to obtain this
information the diatom inferred pH technique was developed in this
study.
During two field seasons, July 1981 and July 1982, short sediment
cores (circa 25-30 cm) were collected from 28 study lakes located north
of Lake Superior, District Algoma, Ontario. The surface sediment
diatoms (0-1 cm) from each of these lakes were carefully identified,
enumerated, and classified in terms of their pH indicator status.
The surface sediment diatom analysis indicated that lake pH is one of
the most important factors affecting the species composition and
relative abundance of diatom populations. Thus diatom assemblages can
be sensitive indicators of lake acidification. When Nygaard's index
alpha was plotted against observed lake pH, a statistically
significant relationship resulted (r=-0.89; p=
Resumo:
Our objective is to develop a diffusion Monte Carlo (DMC) algorithm to estimate the exact expectation values, ($o|^|^o), of multiplicative operators, such as polarizabilities and high-order hyperpolarizabilities, for isolated atoms and molecules. The existing forward-walking pure diffusion Monte Carlo (FW-PDMC) algorithm which attempts this has a serious bias. On the other hand, the DMC algorithm with minimal stochastic reconfiguration provides unbiased estimates of the energies, but the expectation values ($o|^|^) are contaminated by ^, an user specified, approximate wave function, when A does not commute with the Hamiltonian. We modified the latter algorithm to obtain the exact expectation values for these operators, while at the same time eliminating the bias. To compare the efficiency of FW-PDMC and the modified DMC algorithms we calculated simple properties of the H atom, such as various functions of coordinates and polarizabilities. Using three non-exact wave functions, one of moderate quality and the others very crude, in each case the results are within statistical error of the exact values.
Resumo:
Rapport de recherche
Resumo:
We Use Survey Data on the Well-Being of Individuals to Measure Attitude Toward Risk. Risk Neutrality Cannot Be Rejected by the Data.
Resumo:
Affiliation: Faculté de pharmacie, Université de Montréal & Institut de recherches cliniques de Montréal
Resumo:
Rapport de recherche
Resumo:
We apply to the Senegalese input-output matrix of 1990, disagregated into formal and informal activities, a recently designed structural analytical method (Minimal-Flow-Analysis) which permits to depict the direct and indirect production likanges existing between activities.
Resumo:
Cette thèse vise à comprendre comment et dans quelle mesure l’agrément des établissements de santé est-il efficace pour développer les capacités des acteurs, nécessaires pour améliorer la qualité des soins et des services. Au cours des dix dernières années, il y a eu une croissance rapide, à l'échelle mondiale de la mise en œuvre de programmes d'agrément en santé pour l’amélioration de la qualité. L'expérience de la dernière décennie prouve que l'agrément est une technique valable pour l'amélioration de la qualité dans beaucoup d’organismes de santé. Il est également utilisé pour soutenir les réformes en santé. Malgré cela, les outils de gestion comme l’agrément sont souvent critiqués, car elles sont adoptées avec enthousiasme négligeant fréquemment une implantation favorisant la mise en place de comportements durables et la démonstration de meilleurs résultats. Le développement des capacités (DC) est un processus délibéré, multidimensionnel, dynamique dont le but est d’améliorer la performance des individus, des équipes, de l’organisation et d’un système. Le DC constitue une des trois assises de l’implantation d’une démarche institutionnalisée de la qualité, au même niveau que la communication et la reconnaissance. Cette recherche c’est déroulée dans un organisme d’Arabie Saoudite dans le cadre de leur première démarche avec le Conseil canadien d’agrément (CCASS) des services de santé. Une étude de cas unique d’implantation de l’agrément a été menée utilisant une approche mixte. Quatre niveaux d’analyse ont été étudiés en détail (individu, équipe, organisation et système) afin de mesurer 28 effets escomptés du DC puisés dans la littérature. Des entretiens semi-structurés, des groupes de discussion, une revue de la documentation ont été réalisés. Dans le but de mesurer trois des effets escomptés, un questionnaire sur le niveau d’implantation de la qualité (NIQ) a été administré pour la première fois en Arabie Saoudite dans cinq organismes. La performance du cas a été évaluée en relation avec les autres et en fonction de son positionnement dans le cycle d’agrément. Des analyses qualitatives et quantitatives utilisant la technique de polissage par la médiane ont été exécutées. Au niveau des individus, l’agrément a motivé la participation à de nouvelles formations. L’auto-évaluation est l’étape qui encourage l’apprentissage par l’autocritique. Le sentiment de fierté est le changement affectif le plus souvent répertorié. Les équipes ont amélioré leur communication par l’implantation d’une « chaîne de commandement ». Elle a introduit des notions de respect et de clarté des rôles telles qu’exigées par les normes. Au moyen de la mesure du NIQ, nous avons constaté que la majorité des organismes saoudiens se positionnent au niveau minimal d’implantation (assurance qualité). Le plus expérimenté avec l’agrément démontre les meilleurs résultats tout près du second niveau. Enfin, plus les organismes progressent dans la démarche d’agrément, plus les écarts de perception entre les 8 domaines mesurés par le questionnaire du NIQ et entre les différentes catégories d’emploi s’amincissent. En conclusion, l’agrément a démontré de l’efficacité à développer de nouvelles capacités par l’intégration des transformations des individus et par l’impact de l’acquisition des nouvelles capacités sur le changement des pratiques, majoritairement au niveau des individus, des équipes et de l’organisation. Le processus d’agrément a également fait preuve d’importants pouvoirs de convergence au niveau de l’adoption des pratiques édictées par les normes d’agrément qui contribuent positivement à l’amélioration de la qualité.
Resumo:
Gowers, dans son article sur les matrices quasi-aléatoires, étudie la question, posée par Babai et Sos, de l'existence d'une constante $c>0$ telle que tout groupe fini possède un sous-ensemble sans produit de taille supérieure ou égale a $c|G|$. En prouvant que, pour tout nombre premier $p$ assez grand, le groupe $PSL_2(\mathbb{F}_p)$ (d'ordre noté $n$) ne posséde aucun sous-ensemble sans produit de taille $c n^{8/9}$, il y répond par la négative. Nous allons considérer le probléme dans le cas des groupes compacts finis, et plus particuliérement des groupes profinis $SL_k(\mathbb{Z}_p)$ et $Sp_{2k}(\mathbb{Z}_p)$. La premiére partie de cette thése est dédiée à l'obtention de bornes inférieures et supérieures exponentielles pour la mesure suprémale des ensembles sans produit. La preuve nécessite d'établir préalablement une borne inférieure sur la dimension des représentations non-triviales des groupes finis $SL_k(\mathbb{Z}/(p^n\mathbb{Z}))$ et $Sp_{2k}(\mathbb{Z}/(p^n\mathbb{Z}))$. Notre théoréme prolonge le travail de Landazuri et Seitz, qui considérent le degré minimal des représentations pour les groupes de Chevalley sur les corps finis, tout en offrant une preuve plus simple que la leur. La seconde partie de la thése à trait à la théorie algébrique des nombres. Un polynome monogéne $f$ est un polynome unitaire irréductible à coefficients entiers qui endengre un corps de nombres monogéne. Pour un nombre premier $q$ donné, nous allons montrer, en utilisant le théoréme de densité de Tchebotariov, que la densité des nombres premiers $p$ tels que $t^q -p$ soit monogéne est supérieure ou égale à $(q-1)/q$. Nous allons également démontrer que, quand $q=3$, la densité des nombres premiers $p$ tels que $\mathbb{Q}(\sqrt[3]{p})$ soit non monogéne est supérieure ou égale à $1/9$.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Grâce à leur flexibilité et à leur facilité d’installation, les réseaux maillés sans fil (WMNs) permettent un déploiement d’une infrastructure à faible coût. Ces réseaux étendent la couverture des réseaux filaires permettant, ainsi, une connexion n’importe quand et n’importe où. Toutefois, leur performance est dégradée par les interférences et la congestion. Ces derniers causent des pertes de paquets et une augmentation du délai de transmission d’une façon drastique. Dans cette thèse, nous nous intéressons au routage adaptatif et à la stabilité dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la conception d’une métrique de routage et à la sélection des passerelles permettant d’améliorer la performance des WMNs. Dans ce contexte nous proposons un protocole de routage à la source basé sur une nouvelle métrique. Cette métrique permet non seulement de capturer certaines caractéristiques des liens tels que les interférences inter-flux et intra-flux, le taux de perte des paquets mais également la surcharge des passerelles. Les résultats numériques montrent que la performance de cette métrique est meilleure que celle des solutions proposées dans la littérature. Dans une deuxième partie de la thèse, nous nous intéressons à certaines zones critiques dans les WMNs. Ces zones se trouvent autour des passerelles qui connaissent une concentration plus élevé du trafic ; elles risquent de provoquer des interférences et des congestions. À cet égard, nous proposons un protocole de routage proactif et adaptatif basé sur l’apprentissage par renforcement et qui pénalise les liens de mauvaise qualité lorsqu’on s’approche des passerelles. Un chemin dont la qualité des liens autour d’une passerelle est meilleure sera plus favorisé que les autres chemins de moindre qualité. Nous utilisons l’algorithme de Q-learning pour mettre à jour dynamiquement les coûts des chemins, sélectionner les prochains nœuds pour faire suivre les paquets vers les passerelles choisies et explorer d’autres nœuds voisins. Les résultats numériques montrent que notre protocole distribué, présente de meilleurs résultats comparativement aux protocoles présentés dans la littérature. Dans une troisième partie de cette thèse, nous nous intéressons aux problèmes d’instabilité des réseaux maillés sans fil. En effet, l’instabilité se produit à cause des changements fréquents des routes qui sont causés par les variations instantanées des qualités des liens dues à la présence des interférences et de la congestion. Ainsi, après une analyse de l’instabilité, nous proposons d’utiliser le nombre de variations des chemins dans une table de routage comme indicateur de perturbation des réseaux et nous utilisons la fonction d’entropie, connue dans les mesures de l’incertitude et du désordre des systèmes, pour sélectionner les routes stables. Les résultats numériques montrent de meilleures performances de notre protocole en comparaison avec d’autres protocoles dans la littérature en termes de débit, délai, taux de perte des paquets et l’indice de Gini.