1000 resultados para méthode numérique


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bien que plusieurs chercheurs aient analysé l'influence de divers facteurs sur l'intensité des conflits ethniques, il a été constaté que l'identité ethnique elle-même n'a jamais été correctement examinée. Ce phénomène est essentiellement dû à ce que nous croyons être une classification inexacte des groupes ethniques. Nous proposons une nouvelle méthode de catégorisation pour les identités ethniques présentant que la religion, la langue et la race forment les distinctions les plus précises et nous les classifions alors comme les identités ethniques fondamentales. Subséquemment, une étude comparative de ces identités ethniques a été entreprise avec l'utilisation de deux bases de données différentes: l’ensemble de données Battle Deaths qui est associé avec la base de données sur les conflits armés de l’UCDP/PRIO et la base de données Minorities at Risk. Les résultats, dans leur ensemble, ont indiqué que les identités ethniques avec des attachements émotifs plus intenses mènent à une plus grande intensité de conflit. Les conflits ethniques fondamentaux ont démontré une tendance à mener à des conflits plus intenses que les conflits ethniques non-fondamentaux. De plus, la similitude parmi les groupes ethniques tend à affaiblir l'intensité des conflits. En outre, l'étude a également conclu que plus le nombre d'identités ethnique fondamentales impliquées dans un conflit est grand, plus le conflit sera intense. Cependant, les résultats ne pouvaient pas déterminer une différence conséquente parmi l’influence relative des trois identités ethniques fondamentales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’exposition du fœtus à l’éthanol est reconnue comme étant la principale cause de maladies évitables lors du développement. Une forte exposition à l’alcool durant la gestation peut occasionner des dysmorphies cranio-faciales et des retards mentaux, ainsi que des troubles d’apprentissages et du comportement. Le développement du système visuel est également perturbé chez une grande majorité d’enfants qui ont été exposés à l’alcool. Lorsque les doses prises sont élevées, le système visuel peut présenter une panoplie de symptômes comme une augmentation de la tortuosité des vaisseaux rétiniens, de la myopie, de l’hypermétropie, du strabisme et une hypoplasie du nerf optique. Cependant, très peu d’études se sont penchées sur les effets de plus faibles doses sur le développement du système visuel du primate. Le singe est un excellent modèle pour étudier le système visuel car il possède plusieurs similitudes avec l’humain tant au niveau développemental qu’au niveau structurel. De plus, le singe utilisé, le Chlrocebus aethiops sabeus, possède l’avantage que des individus de cette espèce ont une consommation naturelle et volontaire à l’alcool. Une étude (Clarren et al., 1990) a suggéré qu’une faible exposition à l’alcool du fœtus du primate non humain occasionnait une diminution du nombre de cellules ganglionnaires de la rétine (CGRs). Étant donné que le corps genouillé latéral dorsal (CGLd) reçoit la plupart de ses intrants de la rétine, il est raisonnable d’assumer que les couches rétino-récipientes du CGLd devraient être aussi affectées. Nous avons alors émis l’hypothèse que le CGLd devrait également subir une diminution du nombre de neurones. Pour la première fois, nous avons utilisé une méthode stéréologique pour quantifier le nombre de cellules dans les couches parvo- (P) et magnocellulaires (M) du CGLd. Contrairement à notre hypothèse de départ, nous n’avons pas observé de diminution dans le nombre global de neurones dans le CGLd des animaux exposés à l’alcool par rapport à des sujets contrôles, ni une diminution de son volume. Nous avons toutefois observé une diminution de la taille du corps cellulaire seulement dans la population M du CGLd. Ces résultats suggèrent que le système visuel est affecté par une faible exposition à l’alcool durant son développement qui devrait se traduire sur le comportement par des déficits dans les fonctions de la voie M.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’effervescence religieuse et politique au Cameroun engendre progressivement la fragmentation ethnique du peuple chrétien camerounais. Face à la manipulation politique, l’autre nom de l’injustice ethnique, la plupart des Camerounais et Camerounaises y compris les chrétiens réagissent désormais par le tribalisme, l’autre nom de la résignation ou mieux du déchirement social. Les Camerounais et Camerounaises donnent l’impression d’avoir perdu l’esprit de résistance/dissidence qui leur a valu la liberté ou mieux l’indépendance. Comment ignorer que de s’accoutumer au drame de la dérive ethnique, en s’installant, pour des raisons de survie, dans l’éclatement le plus abject, c’est opter pour l’asservissement volontaire d’un peuple qui mène inexorablement au génocide collectif ? Notre recherche repose sur l’hypothèse que les conflits ethniques ont pénétré la sphère du christianisme et font désormais partie des dysfonctionnements de l’Église du Cameroun. Ces dysfonctionnements internes nuisent à la crédibilité de l’Église. Il y a un lien entre les défaillances observées dans l’Église et les défaillances de la société Camerounaise. De plus, le rapport de convergence entre les rivalités ethniques et la religion, provoque un questionnement théologique inévitable : comment amener les différentes ethnies qui forment la plupart des États africains à un harmonieux vivre - ensemble inspiré par le mode de vie et de fonctionnement des Églises chrétiennes, au Cameroun en l'occurrence ? Faut-il se limiter à l’adoption d’une nouvelle image de l’Église par exemple l’Église-famille-de-Dieu, ou bien faut-il prendre le taureau par les cornes et éduquer les peuples africains à une culture de la paix ? La démarche de cette thèse s’inspire de la méthode adoptée par la théologie pratique, c’est-à-dire la praxéologie1, en relation avec la théologie contextuelle2, au niveau du lien avec les méthodes d’analyses des sciences sociales et sciences humaines, et au niveau de sa dimension prophétique créatrice. Elle est construite autour de quatre coordonnées: observation (médiation sociale), interprétation (médiation herméneutique), intervention pastorale (médiation pratique) et prospective. 1 Cf. G. ROUTHIER, et M.VIAU, (dir.), Précis de théologie pratique, Montréal/Bruxelles, Novalis/Lumen Vitae, 2004, 819 p. 2 Cf. C. BOFF, Théorie et pratique . La méthode des théologies de la libération, Paris, Cerf, 1990, 400 p. ii La thèse comporte quatre parties. La première partie (chapitres 1, 2 et 3) consacrée à l’observation cerne la problématique du vivre ensemble multiethnique, pour permettre de mieux percevoir la manifestation du phénomène du tribalisme dans l’Église (les Églises) et la société camerounaise. Elle montre que des situations dramatiques, de malheurs, de pauvreté, de famine, de conflits et de guerres sont causées en partie par le tribalisme exclusif. La deuxième partie (chapitres 4 et 5) porte sur la question du sens. Elle analyse et met à l’épreuve la compréhension du phénomène du tribalisme et des conflits ethniques dans la société et dans les Églises du Cameroun. Sont ainsi abordés, successivement, les principales articulations du tribalisme, la stratégie mise sur pied (diviser pour mieux régner) pour la transformation des structures sociales au Cameroun pendant la colonisation, puis récupérée par les politiciens comme idéologie politique depuis les indépendances. Nous en sommes arrivés à constater que cette idéologie a conduit à une profonde déstructuration de la société camerounaise jusque dans l’Église (les Églises). La troisième partie (chapitres 6 et 7) est consacrée à la pratique ecclésiale du dialogue de la diversité ethnique africaine pour la paix ; nous y montrons comment les solidarités ethniques purifiées au feu de l’Évangile peuvent avoir une influence sur la pratique chrétienne. Nous cherchons ensuite à démontrer que le dialogue interethnique bien articulé est le chemin de la réconciliation. La quatrième partie (chapitre 8) est un effort pour passer de l’utopie mise en pratique à une pratique en forme d’utopie. Nous cherchons à montrer que le dialogue pastoral enrichi par la diversité ethnique et religieuse entraînera la transformation de l’Église locale dans son interaction avec les différentes ethnies du Cameroun et d’Afrique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

À très peu de philosophes l’histoire de la pensée occidentale a accordé une place aussi significative qu’à Socrate : nous apprenons tout naturellement à l’édifier comme héros de la rationalité et à reconnaître en lui la figure même du philosophe critique. À plusieurs égards, cette représentation élogieuse nous paraît justifiée, bien que, d’un autre point de vue, elle puisse nous faire sombrer dans la confusion, dès lors que notre regard porte simultanément, et comme pour produire un contraste, sur l’image d’un Socrate se soumettant au daimonion, son étrange signe divin. Comment pouvons-nous justifier, à partir du corpus platonicien, à la fois l’engagement de Socrate vis-à-vis de la rationalité et sa soumission à un phénomène en apparence irrationnel ? De cette question troublante est née la présente étude qui se consacre donc au problème de l’articulation entre le rapport de Socrate aux dieux et son rapport à la raison critique. Plus précisément, nous avons cherché à déterminer s’il existait, sur le plan épistémologique, une hiérarchie entre le daimonion et la méthode d’investigation rationnelle propre à Socrate, l’elenchos. Une telle étude exégétique nécessitait, dans un premier temps, une analyse systématique et approfondie des quelques passages sur le signe divin. Nous avons ensuite exposé deux solutions paradigmatiques au problème du double engagement contradictoire de Socrate, celle de G. Vlastos ainsi que celle de T.C. Brickhouse et N.D. Smith. Enfin, nous avons augmenté cette seconde partie d’un examen spécifique du Phèdre et du Timée, de même que d’un survol des modes de divination pour satisfaire un triple objectif : situer le signe divin en regard de la mantique traditionnelle, déterminer le rôle attribué par Platon à la raison dans le processus divinatoire, et être ainsi en mesure de trancher notre question principale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

INTRODUCTION Des réponses thérapeutiques variables aux glucocorticoïdes (GCs) sont observées parmi les patients atteints de la leucémie lymphoblastique aiguë (LLA). Les protéines Bax et Bim ont déjà montré un rôle important dans l’apoptose des cellules leucémiques. L’expression de Bax était plus basse chez les patients leucémiques résistants au médicament, de même une sensibilité diminuée aux GCs a été associée avec une expression réduite de Bim. La différence dans l’expression pourrait être due à des polymorphismes présents dans ces gènes et donc être associés avec la résistance aux GCs. MÉTHODE Dix-huit polymorphismes en régions régulatrices, 2 polymorphismes exoniques et 7 polymorphismes en région 3’UTR de ces gènes ont été analysés chez les témoins (n=50) et ont permis de déterminer un nombre minimal de polymorphismes suffisants pour définir les haplotypes (tagSNPs). Ces 8 polymorphismes ont ensuite été génotypés chez 286 enfants atteints de la LLA et ont été testés pour l’issue de la maladie par l’analyse de survie. RÉSULTATS Une survie sans évènement et une survie sans rechute diminuées ont été observées pour l’haplotype 3 (p=0,03 et p=0,02). Une survie globale diminuée a été associée avec l’homozygotie pour l’allèle exonique T298C>T (p=0,03), de même que pour les haplotypes 1 et 4 (p=0,04 et p=0,02) du gène Bim. CONCLUSION Les polymorphismes ont été associés avec une survie diminuée chez des enfants atteints de LLA. Il reste à tester d’autres polymorphismes présents dans ces deux gènes ainsi qu’à définir leurs fonctions afin de comprendre leurs rôles dans la réponse aux GCs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’industrie forestière est un secteur qui, même s’il est en déclin, se trouve au cœur du débat sur la mondialisation et le développement durable. Pour de nombreux pays tels que le Canada, la Suède et le Chili, les objectifs sont de maintenir un secteur florissant sans nuire à l’environnement et en réalisant le caractère fini des ressources. Il devient important d’être compétitif et d’exploiter de manière efficace les territoires forestiers, de la récolte jusqu’à la fabrication des produits aux usines, en passant par le transport, dont les coûts augmentent rapidement. L’objectif de ce mémoire est de développer un modèle de planification tactique/opérationnelle qui permet d’ordonnancer les activités pour une année de récolte de façon à satisfaire les demandes des usines, sans perdre de vue le transport des quantités récoltées et la gestion des inventaires en usine. L’année se divise en 26 périodes de deux semaines. Nous cherchons à obtenir les horaires et l’affectation des équipes de récolte aux blocs de coupe pour une année. Le modèle mathématique développé est un problème linéaire mixte en nombres entiers dont la structure est basée sur chaque étape de la chaine d’approvisionnement forestière. Nous choisissons de le résoudre par une méthode exacte, le branch-and-bound. Nous avons pu évaluer combien la résolution directe de notre problème de planification était difficile pour les instances avec un grand nombre de périodes. Cependant l’approche des horizons roulants s’est avérée fructueuse. Grâce à elle en une journée, il est possible de planifier les activités de récolte des blocs pour l’année entière (26 périodes).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire propose d’étudier les représentations de la masculinité dans les vidéoclips de musique populaire. Il consiste plus précisément en une analyse textuelle de vidéoclips suivant l’approche sémiologique. La représentation y est entendue comme un processus d’attribution de sens, agissant dans la construction sociale de la masculinité. Selon une méthode qualitative, il est premièrement question de cerner et, ultérieurement, explorer les principaux schémas de la masculinité dans un corpus de 29 vidéoclips sélectionné auprès de la chaîne québécoise Musique Plus. L’observation des codes visuels est centrale à cette entreprise, l’articulation de ces derniers permettant la prolifération d’expressions du genre masculin. Partant du point de vue que des attributs, notamment la force et l’invulnérabilité, apparaissent comme typiquement masculins au sein de certaines représentations, il sera question de confronter cette idée aux trois scénarios majeurs ayant émané du corpus ; l’homme-enfant, l’introspectif et le meneur, indiquant tous trois la récente montée des représentations d’une masculinité vulnérable en musique populaire. Les constats qui résulteront de cette exploration seront finalement recadrés dans l’actuel cadre social, où le masculin et le féminin sont de moins en moins enclos dans les moules traditionnels et tendent à se redéfinir sur une nouvelle matrice.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'utilisation des méthodes formelles est de plus en plus courante dans le développement logiciel, et les systèmes de types sont la méthode formelle qui a le plus de succès. L'avancement des méthodes formelles présente de nouveaux défis, ainsi que de nouvelles opportunités. L'un des défis est d'assurer qu'un compilateur préserve la sémantique des programmes, de sorte que les propriétés que l'on garantit à propos de son code source s'appliquent également au code exécutable. Cette thèse présente un compilateur qui traduit un langage fonctionnel d'ordre supérieur avec polymorphisme vers un langage assembleur typé, dont la propriété principale est que la préservation des types est vérifiée de manière automatisée, à l'aide d'annotations de types sur le code du compilateur. Notre compilateur implante les transformations de code essentielles pour un langage fonctionnel d'ordre supérieur, nommément une conversion CPS, une conversion des fermetures et une génération de code. Nous présentons les détails des représentation fortement typées des langages intermédiaires, et les contraintes qu'elles imposent sur l'implantation des transformations de code. Notre objectif est de garantir la préservation des types avec un minimum d'annotations, et sans compromettre les qualités générales de modularité et de lisibilité du code du compilateur. Cet objectif est atteint en grande partie dans le traitement des fonctionnalités de base du langage (les «types simples»), contrairement au traitement du polymorphisme qui demande encore un travail substantiel pour satisfaire la vérification de type.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette étude a pour but de tester si l’ajout de variables biomécaniques, telles que celles associées à la morphologie, la posture et l’équilibre, permet d’améliorer l’efficacité à dissocier 29 sujets ayant une scoliose progressive de 45 sujets ayant une scoliose non progressive. Dans une étude rétrospective, un groupe d’apprentissage (Cobb: 27,1±10,6°) a été utilisé avec cinq modèles faisant intervenir des variables cliniques, morphologiques, posturales et d’équilibre et la progression de la scoliose. Un groupe test (Cobb: 14,2±8,3°) a ensuite servit à évaluer les modèles dans une étude prospective. Afin d’établir l’efficacité de l’ajout de variables biomécaniques, le modèle de Lonstein et Carlson (1984) a été utilisé à titre d’étalon de mesures. Le groupe d’apprentissage a été utilisé pour développer quatre modèles de classification. Le modèle sans réduction fut composé de 35 variables tirées de la littérature. Dans le modèle avec réduction, une ANCOVA a servit de méthode de réduction pour passer de 35 à 8 variables et l’analyse par composantes principales a été utilisée pour passer de 35 à 7 variables. Le modèle expert fut composé de huit variables sélectionnées d’après l’expérience clinque. L’analyse discriminante, la régression logistique et l’analyse par composantes principales ont été appliquées afin de classer les sujets comme progressifs ou non progressifs. La régression logistique utilisée avec le modèle sans réduction a présenté l’efficience la plus élevée (0,94), tandis que l’analyse discriminante utilisée avec le modèle expert a montré l’efficience la plus faible (0,87). Ces résultats montrent un lien direct entre un ensemble de paramètres cliniques et biomécaniques et la progression de la scoliose idiopathique. Le groupe test a été utilisé pour appliquer les modèles développés à partir du groupe d’apprentissage. L’efficience la plus élevée (0,89) fut obtenue en utilisant l’analyse discriminante et la régression logistique avec le modèle sans réduction, alors que la plus faible (0,78) fut obtenue en utilisant le modèle de Lonstein et Carlson (1984). Ces valeurs permettent d’avancer que l’ajout de variables biomécaniques aux données cliniques améliore l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Afin de vérifier la précision des modèles, les aires sous les courbes ROC ont été calculées. L’aire sous la courbe ROC la plus importante (0,93) fut obtenue avec l’analyse discriminante utilisée avec le modèle sans réduction, tandis que la plus faible (0,63) fut obtenue avec le modèle de Lonstein et Carlson (1984). Le modèle de Lonstein et Carlson (1984) n’a pu séparer les cas positifs des cas négatifs avec autant de précision que les modèles biomécaniques. L’ajout de variables biomécaniques aux données cliniques a permit d’améliorer l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Ces résultats permettent d’avancer qu’il existe d’autres facteurs que les paramètres cliniques pour identifier les patients à risque de progresser. Une approche basée sur plusieurs types de paramètres tient compte de la nature multifactorielle de la scoliose idiopathique et s’avère probablement mieux adaptée pour en prédire la progression.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'étude suivante décrit la synthèse des ligands nacnacxylH, nacnacBnH, nacnacR,RH et nacnacCyH en utilisant une méthode générale qui implique des rendements élevés et des coûts raisonnables, la complexation de ces ligands au Zr, la caractérisation de ces complexes et l’investigation de leurs réactivités. Les complexes de zirconium ont été obtenus en utilisant deux méthodes synthétiques principales : la première consiste en traitement du sel de lithium du ligand avec le ZrCl4. La seconde est la réaction du ligand neutre avec les complexes d’alkyl-zirconium(IV) par protonation de l'alkyle coordonné. Le ligand adopte deux modes de coordination avec le Zr. Une coordination 2 est observée dans les complexes octaèdriques contenant un ou deux ligands nacnac. En présence d'un autre ligand ayant une coordonnation 5, par exemple Cp ou Ind, le ligand nacnac se trouve en coordination x avec le centre métallique de zirconium. En solution, les complexes obtenus de (nacnac)2ZrX2 montrent un comportement dynamique via un « Bailar-twist » et les paramètres d'activation de cette isomérisation ont été obtenus. Le complexe octaèdrique (nacnacBn)2ZrCl2, 2c, n'a pas montré de réactivité dans la carbozirconation et son alkylation n'était pas possible par l’échange des chlorures avec les alkyles. L’analogue dimethylé (nacnacBn)2ZrMe2, 2d, peut être préparé par alkylation du ZrCl4 avant la complexation du ligand. Ce dernier a été prouvé aussi de ne pas être réactif dans la carbozirconation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vivre avec une maladie pulmonaire obstructive chronique (MPOC), c’est vivre avec une maladie chronique, dégénérative et irréversible. La dyspnée qui l’accompagne demande une adaptation continuelle à de multiples incapacités. La qualité de vie des personnes vivant avec la MPOC s’en trouve compromise. Au Québec, le taux de mortalité de la MPOC a doublé depuis 20 ans. Si plusieurs études se sont intéressées à la symptomatologie vécue dans la dernière année de vie, aucune n’a abordé spécifiquement les perceptions de personnes vivant avec une MPOC sévère au regard de leur fin de vie. La présente étude avait justement pour but de décrire ces perceptions dans la perspective de la théorie de l’humain en devenir. Cette étude qualitative descriptive fut réalisée auprès de six personnes dans un centre hospitalier universitaire de la région de Montréal. L’analyse des entrevues a été réalisée selon la méthode de Miles et Huberman (2003) à partir de la transcription intégrale des entrevues. Cette analyse a permis de dégager quatre thèmes qui reflètent les perceptions des participants au regard de leur fin de vie, soit: 1) vivre et se voir décliner, 2) vivre et se préparer à mourir, 3) mourir d’une MPOC c’est étouffer et 4) mourir entouré à l’hôpital. Cette étude a mis en évidence que les personnes vivant avec une MPOC sévère souhaitent mourir à l’hôpital entouré de leurs proches. Cette étude contribue à une connaissance plus globale de l’expérience de fin de vie. De plus, elle propose des recommandations pour la recherche, la pratique, la formation et la gestion infirmière.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.