14 resultados para Model theory
em Université de Montréal, Canada
Resumo:
Cette recherche vise à étudier l'efficacité des cours d'espagnol comme langue étrangère, à partir de la perception des étudiants d’espagnol comme langue d’origine. Pour atteindre les résultats et les conclusions obtenus, cette étude qualitative compte sur la participation des répondants hispaniques qui ont appris l'espagnol à la maison, à l'école primaire, au secondaire, au cégep et/ou au collège. Les participants ont répondu à un questionnaire qui leur a permis d'exprimer leur perception à l'égard des cours d’espagnol comme langue étrangère qu'ils ont pris au cours de leur étude primaire, secondaire ou supérieure. Les résultats de cette recherche indiquent que les élèves hispaniques ne sont pas intégrés dans les classes ELE, ce qui motive les participants à poursuivre l’étude de la langue espagnole. Comme expliqué par Gardner (1985) dans sa théorie du modèle socio-éducationnel, l’acquisition des langages intervient dans un contexte culturel spécifique et elle est influencée par la croyance populaire et les différences individuelles. Ces dernières sont intégrées dans le concept du motif d'intégration, qui est composé du sens de l'intégration, de l'attitude envers la situation d'apprentissage et de la motivation. Les réponses données par les participants dans cette étude peuvent être utiles à la conception et au développement de cours et de méthodes d’apprentissage de l’espagnol pour les hispanophones d’origine. En tenant compte de leurs points de vue, les étudiantes auraient un sens plus élevé de l’intégration, ce qui influence directement leur motivation et par le fait même leur processus d’apprentissage.
Resumo:
La présente thèse se base sur les principes de la théorisation ancrée (Strauss & Corbin, 1998) afin de répondre au manque de documentation concernant les stratégies adoptées par des « agents intermédiaires » pour promouvoir l’utilisation des connaissances issues de la recherche auprès des intervenants en éducation. Le terme « agent intermédiaire » réfère aux personnes qui sont positionnées à l’interface entre les producteurs et les utilisateurs des connaissances scientifiques et qui encouragent et soutiennent les intervenants scolaires dans l’application des connaissances scientifiques dans leur pratique. L’étude s’inscrit dans le cadre d’un projet du ministère de l’Éducation, du Loisir et du Sport du Québec visant à améliorer la réussite scolaire des élèves du secondaire provenant de milieux défavorisés. Des agents intermédiaires de différents niveaux du système éducatif ayant obtenu le mandat de transférer des connaissances issues de la recherche auprès des intervenants scolaires dans les écoles visées par le projet ont été sollicités pour participer à l’étude. Une stratégie d’échantillonnage de type « boule-de-neige » (Biernacki & Waldorf, 1981; Patton, 1990) a été employée afin d’identifier les personnes reconnues par leurs pairs pour la qualité du soutien offert aux intervenants scolaires quant à l’utilisation de la recherche dans leur pratique. Seize entrevues semi-structurées ont été réalisées. L’analyse des données permet de proposer un modèle d’intervention en transfert de connaissances composé de 32 stratégies d’influence, regroupées en 6 composantes d’intervention, soit : relationnelle, cognitive, politique, facilitatrice, évaluative, de même que de soutien et de suivi continu. Les résultats suggèrent que les stratégies d’ordre relationnelle, cognitive et politique sont interdépendantes et permettent d’établir un climat favorable dans lequel les agents peuvent exercer une plus grande influence sur l’appropriation du processus de l’utilisation des connaissances des intervenants scolaire. Ils montrent en outre que la composante de soutien et de suivi continu est importante pour maintenir les changements quant à l’utilisation de la recherche dans la pratique chez les intervenants scolaires. Les implications théoriques qui découlent du modèle, ainsi que les explications des mécanismes impliqués dans les différentes composantes, sont mises en perspective tant avec la documentation scientifique en transfert de connaissances dans les secteurs de la santé et de l’éducation, qu’avec les travaux provenant de disciplines connexes (notamment la psychologie). Enfin, des pistes d’action pour la pratique sont proposées.
Resumo:
This survey presents within a single model three theories of decentralization of decision-making within organizations based on private information and incentives. Renegotiation, collusion, and limits on communication are three sufficient conditions for decentralization to be optimal.
Resumo:
Recent empirical evidence from vector autoregressions (VARs) suggests that public spending shocks increase (crowd in) private consumption. Standard general equilibrium models predict the opposite. We show that a standard real business cycle (RBC) model in which public spending is chosen optimally can rationalize the crowding-in effect documented in the VAR literature. When such a model is used as a data-generating process, a VAR estimated using the artificial data yields a positive consumption response to an increase in public spending, consistent with the empirical findings. This result holds regardless of whether private and public purchases are complements or substitutes.
Resumo:
To be a coherent and genuinely alternative conception to the shareholder model, any moral stakeholder theory must meet the following conditions: (1) It must be an ethical theory; (2) It must identify a limited group as stakeholders; (3) The group must be identified on morally relevant grounds; (4) Stakeholder claims must be non-universal; (5) And not held against everyone. A principle for identifying the stakeholder is suggested as a person who has much to lose – financially, socially, or psychologically – by the failure of the firm. The emerging picture contrasts sharply with the conventional conception of the firm.
Resumo:
Les Tableaux de Bord de la Performance ont été acclamés avec raison depuis leur introduction en 1992, mais les intellectuels continuent encore à étudier leurs aspects pragmatiques. Ce papier contribue à la littérature sur les Tableaux de Bord de la Performance, tout d’abord, en offrant une explication logique quant à leur succès et ensuite, en présentant un cadre de travail contextuel de tableaux de bord de la performance pour une structure de gestion hiérarchisée. Le cadre de travail contextuel réforme la perspective d’apprentissage et de croissance du tableau de bord de la performance (i) en effectuant la transition de référence (subjective/objective), et (ii) en reconnaissant que la Perspective d’Apprentissage et de Croissance implique avant tout une incidence de formulation stratégique d’une extra-entité. Le transfert de l’incidence (intra-entité/extra-entité) réconcilie l’évolution de la position de politique de gestion non ordonnée [Contenu: (Contenu: Contexte): Contexte] qu’est la Perspective d’Apprentissage et de Croissance Concomitante. Le cadre de travail supplante également les Perspectives des Tableaux de Bord de la Performances développés par Kaplan et Norton en ajoutant la perspective de politique sociale qui manquait. La perspective manquante implique une transition de référence objective [(position endogène, perspective exogène): (position exogène, perspective exogène)]. De tels signaux de transition [Contenu: (Contenu: Contexte): Contexte] ordonnent l’évolution de la position de politique de gestion.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
Dans cette thèse, nous construisons un modèle épidémiologique de la dissémina- tion de normes juridiques. L’objectif est d’expliquer la transmission de normes juridiques américaines régissant les tests de dépistages pour drogues au travail vers le Canada ainsi que la propagation subséquente de ces normes à travers la jurisprudence canadienne. La propagation des normes régissant les tests de dépistages pour drogues au travail sert donc à la fois de point de départ pour une réflexion théorique sur la transmission de normes juridiques et pour une étude de cas empirique. Nous partons de la prémisse que les explications du changement juridique, telles celle de la transplantation et celle de l’harmonisation, sont essentiellement métaphoriques. Ces métaphores explicatives fonctionnent en invitant des comparaisons entre les domaines connus et inconnus. Quand ce processus de comparaison est systématisé, la métaphore devient un modèle. Dans la thèse, nous appliquons cette procédure de systématisation afin de transformer la métaphore de la propagation virale en modèle épidémiologique. Après une revue de la littérature sur les épidémies sociales, nous décrivons les éléments pertinents de la théorie épidémiologique pour, ensuite, les transposer au domaine juridique. Le modèle est alors opérationnalisé en l’appliquant à une base de données composée de la jurisprudence pertinente (n=187). Les résultats soutiennent les hypothèses du modèle. 90 % des décisions qui citent les sources américaines sont infectées selon les critères du modèle, alors que seulement 64 % des décisions qui ne citent pas de sources américaines sont infectées. Cela soutient l’hypothèse d’une épidémie dite de « réservoir commun ». Nous avons également démontré une corrélation positive entre la référence à ces décisions et l’état d’infection! : 87 % des décisions qui citent des décisions qui réfèrent aux sources américaines sont infectées, alors que le taux d’infection parmi la population restante est de seulement 53 %. Les résultats semblables ont été obtenus pour les décisions de troisième génération. Cela soutient l’hypothèse selon laquelle il y a eu propagation à travers la jurisprudence suite aux contacts initiaux avec le réservoir commun. Des corrélations positives ont aussi été démontrées entre l’état d’infection et l’appartenance à l’une ou l’autre de sous-populations particulières qui seraient, par hypothèse, des points d’infection. En conclusion de la thèse, nous avançons que c’est seulement après avoir construit un modèle et d’avoir constaté ses limites que nous pouvons vraiment comprendre le rôle des métaphores et des modèles dans l’explication de phénomènes juridiques.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.
Resumo:
La réflexion est considérée comme un élément significatif de la pédagogie et de la pratique médicales sans qu’il n’existe de consensus sur sa définition ou sur sa modélisation. Comme la réflexion prend concurremment plusieurs sens, elle est difficile à opérationnaliser. Une définition et un modèle standard sont requis afin d’améliorer le développement d’applications pratiques de la réflexion. Dans ce mémoire, nous identifions, explorons et analysons thématiquement les conceptualisations les plus influentes de la réflexion, et développons de nouveaux modèle et définition. La réflexion est définie comme le processus de s’engager (le « soi » (S)) dans des interactions attentives, critiques, exploratoires et itératives (ACEI) avec ses pensées et ses actions (PA), leurs cadres conceptuels sous-jacents (CC), en visant à les changer et en examinant le changement lui-même (VC). Notre modèle conceptuel comprend les cinq composantes internes de la réflexion et les éléments extrinsèques qui l’influencent.
Resumo:
La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.
Resumo:
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.
Resumo:
Provoked vestibulodynia (PVD) is a prevalent women’s sexual pain disorder, which is associated with sexual function difficulties. Attachment theory has been used to understand adult sexual outcomes, providing a useful framework for examining sexual adaptation in couples confronted with PVD. Research to date indicates that anxious and avoidant attachment dimensions correlate with worse sexual outcomes in community and clinical samples. The present study examined the association between attachment, pain, sexual function and sexual satisfaction in a sample of 101 couples in which the women presented with PVD. The Actor-Partner Interdependence Model was used in order to investigate both actor and partner effects. This study also examined the role of sexual assertiveness as a mediator of these associations via structural equation modeling. Women completed measures of pain intensity and both members of the couple completed measures of romantic attachment, sexual assertiveness, sexual function and satisfaction. Results indicated that attachment dimensions did not predict pain intensity. Both anxious and avoidant attachment were associated with lower sexual satisfaction. Only attachment avoidance predicted lower sexual function in women. Partner effects indicated that higher sexual assertiveness in men predicted better sexual function in women, while higher sexual assertiveness in women predicted higher sexual satisfaction in men. Finally, women’s sexual assertiveness was found to be a significant mediator of the relationship between their attachment dimensions, sexual function and satisfaction. Findings highlight the importance of examining how anxious and avoidant attachment may lead to difficulties in sexual assertiveness and to less satisfying sexual interactions in couples where women suffer from PVD.