943 resultados para Théorie de complexité du calcul quantique


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cet article revient sur les résultats du programme Spectacle en ligne(s) à partir desquels une réflexion est menée sur le changement de nature de l’archive nativement numérique et de son statut culturel. La constitution d’une archive vidéo annotée des répétitions de deux spectacles vivants nous a permis d’explorer les médiations de l’archive dans le contexte culturel. Notre réflexion sur la médiation se positionne ainsi à la croisée de l’innovation institutionnelle en la matière, et des problématiques scientifiques liées à l’archive numérique. À travers les expérimentations d’éditorialisation de l’archive, menées lors du projet, l’article introduit l’idée que l’archive nativement numérique n’accède au statut d’objet culturel qu’au travers de ses usages, lors de la génération des formes intermédiaires propre à l’éditorialisation de l’archive.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En avril 1975, les Khmers rouges prennent le pouvoir du Cambodge et forcent l’évacuation presque complète des villes du pays vers les campagnes. Le régime restreint à l’extrême les droits individuels, dont la propriété privée. À la chute du régime khmer rouge en janvier 1979, le foncier urbain est en théorie détaché de tous droits antérieurs. Par une enquête historique et ethnographique menée à Battambang, ce mémoire explore comment les relations de propriété autour des ressources foncières et immobilières préexistantes de la ville se sont développées dans ce contexte. Il examine plus précisément les mécanismes d’accès et d’exclusion, issus à la fois des normes politico-légales et de la coutume, qui ont alors légitimé la propriété sur divers types de biens immobiliers situés surtout en ville. La recherche couvre une période historique allant de 1979 à 1992-1993, années de la transition du régime socialiste vers une démocratie libérale. Les résultats montrent que plusieurs logiques d’accès et de possession se sont croisées durant ces années, souvent en marge de la loi et parfois de manière conflictuelle et violente. La diversité de relations de propriété révélée par l’éclairage historique « par en bas » nuance l’idée que l’allocation de la propriété en contexte socialiste a été essentiellement chaotique et contrôlée par un État néopatrimonial. Elle nuance aussi l’idée qu’une pleine privatisation de la propriété a eu lieu au tournant des années 1990. Les nombreuses frictions qui ont résulté de cette formalisation, particulièrement entre l’État local et les petits occupants, invitent à conceptualiser la propriété de manière plus large et à repenser les penchants normatifs pour un régime foncier strict basé sur des droits de propriété individuels et exclusifs, particulièrement dans des régimes post-conflit. En outre, le mémoire sert à donner une profondeur historique à la crise foncière que connaît actuellement le Cambodge.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude a pour but de mettre en contexte la thèse de la modernisation psychique de Daniel Lerner, de faire une analyse interne de l’ouvrage et d’étudier sa réception par les sociologues de l’époque. Comme démarche de recherche, dans un premier temps, nous replacerons l’ouvrage dans la situation historique des deux premières décennies de la guerre froide (les années 50 et 60). Ce faisant, nous tenterons de comprendre la logique de la politique de développement des États-Unis à l’endroit des pays en voie de développement et la place des recherches universitaires dans la politique coloniale américaine. L’approche du développement exogène a largement inspiré les politiques étrangères des pays occidentaux et leurs efforts pour lancer le développement des pays plus nécessiteux. C’est pour cela que Lerner se concentre sur l’effet des médias américains, et surtout du Voice of America, pour analyser le rôle que ceux-ci jouent dans le processus de transformation de la personnalité. Pour aborder cette étape de la recherche, nous devrons comprendre davantage le contexte de l’ouvrage et mieux analyser la relation entre les facteurs externes et les éléments internes qui ont influencé la formation de l’ouvrage. Dans un deuxième temps, nous étudierons l’ouvrage de Lerner et nous discuterons des différents aspects relatifs aux changements sociaux que l’ouvrage a examinés. Dans notre analyse de l’ouvrage, nous critiquerons divers aspects de la pensée sociologique de Lerner et sa manière d’interpréter les faits sociaux et les statistiques. Dans un troisième temps, nous réviserons la réception de l’ouvrage par la communauté scientifique de son époque pour obtenir une large vision de la place de l’oeuvre dans l’histoire de la pensée sociologique américaine du développement. Nous établirons une catégorisation des recensions de l’ouvrage portant sur l’approche sociologique de Lerner et nous mettrons ces recensions dans l’éclairage des champs de recherches universitaires américaines. Nous nous concentrerons sur la réception de cette théorie chez les sociologues de l’époque pour comprendre la dialectique entre la thèse qui y est défendue et la société. Ce faisant, nous éviterons de nous éloigner de la sociologie comme étant la discipline de l’étude des liens sociaux et des interactions symboliques et nous éviterons deduire notre démarche sociologique à une simple étude historique des idées. En gros, nous discuterons de la vision sociologique de l’auteur, de la façon dont son ouvrage a été formé au fil du temps et comment il a été influencé par l’esprit de son époque. De plus, nous verrons comment l’écrivain s’est nourri des théories sociologiques et à quel point il a influencé la pensée sociologique de son temps. Tout cela, en parallèle à l’analyse interne de l’ouvrage, nous permettra de saisir la place de «The Passing of Traditional Society» dans la pensée sociologique américaine. Cette recherche nous aidera à mieux comprendre la vision américaine de l’empathie en tant qu’un élément modernisateur, par rapport à la question du développement dans le contexte historique de l’époque. Cette compréhension nous mènera à approfondir notre analyse des programmes de développement des États-Unis dans le monde en voie du développement. Cette étude nous amènera aussi à élargir notre vision quant aux idées construites et formées dans leur contexte historique (en général) et à découvrir comment la communauté scientifique reste toujours en parti prisonnière de son contexte historique. Cette étude nous permettra de mieux voir les idées (le texte) en relation avec la société, ce qui est vital pour ne pas tomber dans la réduction des idées seulement au texte ou seulement au contexte. En outre, elle nous aidera à comprendre davantage la façon dont la société intervient dans la formation des idées et comment en retour les idées influencent la société.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : Le diabète de type 2 est une maladie évolutive débilitante et souvent mortelle qui atteint de plus en plus de personnes dans le monde. Le traitement antidiabétique non-insulinique (TADNI) notamment le traitement antidiabétique oral (TADO) est le plus fréquemment utilisé chez les adultes atteints de cette maladie. Toutefois, plusieurs de ces personnes ne prennent pas leur TADO tel que prescrit posant ainsi la problématique d’une adhésion sous-optimale. Ceci entraîne des conséquences néfastes aussi bien pour les patients que pour la société dans laquelle ils vivent. Il serait donc pertinent d’identifier des pistes de solution à cette problématique. Objectifs : Trois objectifs de recherche ont été étudiés : 1) Explorer la capacité de la théorie du comportement planifié (TCP) à prédire l’adhésion future au TADNI chez les adultes atteints de diabète de type 2, 2) Évaluer l’efficacité globale des interventions visant à améliorer l’adhésion au TADO chez les adultes atteints de diabète de type 2 et étudier l’influence des techniques de changement de comportement sur cette efficacité globale, et 3) Évaluer l’efficacité globale de l’entretien motivationnel sur l’adhésion au traitement médicamenteux chez les adultes atteints de maladie chronique et étudier l’influence des caractéristiques de cette intervention sur son efficacité globale. Méthodes : Pour l’objectif 1 : Il s’agissait d’une enquête web, suivie d’une évaluation de l’adhésion au TADNI sur une période de 30 jours, chez des adultes atteints de diabète de type 2, membres de Diabète Québec. L’enquête consistait à la complétion d’un questionnaire auto-administré incluant les variables de la TCP (intention, contrôle comportemental perçu et attitude) ainsi que d’autres variables dites «externes». Les informations relatives au calcul de l’adhésion provenaient des dossiers de pharmacie des participants transmis via la plateforme ReMed. Une régression linéaire multivariée a été utilisée pour estimer la mesure d’association entre l’intention et l’adhésion future au TADNI ainsi que l’interaction entre l’adhésion passée et l’intention. Pour répondre aux objectifs 2 et 3, deux revues systématiques et méta-analyses ont été effectuées et rapportées selon les lignes directrices de PRISMA. Un modèle à effets aléatoires a été utilisé pour estimer l’efficacité globale (g d’Hedges) des interventions et son intervalle de confiance à 95 % (IC95%) dans chacune des revues. Nous avons également quantifié l’hétérogénéité (I2 d’Higgins) entre les études, et avons fait des analyses de sous-groupe et des analyses de sensibilité. Résultats : Objectif 1 : Il y avait une interaction statistiquement significative entre l’adhésion passée et l’intention (valeur-p= 0,03). L’intention n’était pas statistiquement associée à l’adhésion future au TADNI, mais son effet était plus fort chez les non-adhérents que chez les adhérents avant l’enquête web. En revanche, l’intention était principalement prédite par le contrôle comportemental perçu à la fois chez les adhérents [β= 0,90, IC95%= (0,80; 1,00)] et chez les non-adhérents passés [β= 0,76, IC95%= (0,56; 0,97)]. Objectif 2 : L’efficacité globale des interventions sur l’adhésion au TADO était de 0,21 [IC95%= (-0,05; 0,47); I2= 82 %]. L’efficacité globale des interventions dans lesquelles les intervenants aidaient les patients et/ou les cliniciens à être proactifs dans la gestion des effets indésirables était de 0,64 [IC95%= (0,31; 0,96); I2= 56 %]. Objectif 3 : L’efficacité globale des interventions (basées sur l’entretien motivationnel) sur l’adhésion au traitement médicamenteux était de 0,12 [IC95%= (0,05; 0,20); I2= 1 %. Les interventions basées uniquement sur l’entretien motivationnel [β= 0,18, IC95%= (0,00; 0,36)] et celles dans lesquelles les intervenants ont été coachés [β= 0,47, IC95%= (0,03; 0,90)] étaient les plus efficaces. Aussi, les interventions administrées en face-à-face étaient plus efficaces que celles administrées par téléphone [β= 0,27, IC95%=(0,04; 0,50)]. Conclusion : Il existe un écart entre l’intention et l’adhésion future au TADNI, qui est partiellement expliqué par le niveau d’adhésion passée. Toutefois, il n’y avait pas assez de puissance statistique pour démontrer une association statistiquement significative entre l’intention et l’adhésion future chez les non-adhérents passés. D’un autre côté, quelques solutions au problème de l’adhésion sous-optimale au TADO ont été identifiées. En effet, le fait d’aider les patients et/ou les cliniciens à être proactifs dans la gestion des effets indésirables contribue efficacement à l’amélioration de l’adhésion au TADO chez les adultes atteints de diabète de type 2. Aussi, les interventions basées sur l’entretien motivationnel améliorent efficacement l’adhésion au traitement médicamenteux chez les adultes atteints de maladie chronique. L’entretien motivationnel pourrait donc être utilisé comme un outil clinique pour soutenir les patients dans l’autogestion de leur TADO.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec le vieillissement des infrastructures routières au Québec, plusieurs ponts de courte portée devront être reconstruits à neuf au cours des prochaines années. La pratique usuelle est de les concevoir entièrement en béton ou en systèmes mixtes acier-béton. Toutefois, avec l’avancement de la recherche dans le domaine du bois, le système hybride bois-béton est envisageable. Le but est de tirer profit des avantages de chaque matériau en les disposant aux endroits appropriés. Le tablier du pont est constitué d’une dalle de béton qui agit en compression et protège des intempéries les poutres en bois lamellé-collé qui résistent en traction. L’enjeu est la capacité de lier efficacement ces deux matériaux pour qu’ils puissent reprendre les efforts dus aux charges de conception avec un glissement d’interface minimal. De nombreux chercheurs ont proposé diverses méthodes pour répondre à cette problématique. Les connecteurs locaux (vis, clous) sont moins rigides et se déforment beaucoup à l’ultime. À l’inverse, les connecteurs continus offrent une rigidité très élevée, de petits déplacements à rupture sans négliger la plasticité du système. Pour cette raison, le connecteur choisi est le HBV Shear, une mince bande d’acier de 90mm de hauteur perforée de trous de 10mm. Sa moitié inférieure est collée dans une fente pratiquée dans la poutre et la partie supérieure est immergée dans le béton. Pour caractériser le comportement du connecteur, dix essais en cisaillement simple ont été effectués. Ils ont permis de quantifier la rigidité et d’apprécier la ductilité qui s’installe dans le système par l’ajout de l’acier. Par la suite, six poutres hybrides simple de 4 m, deux systèmes à poutres double de 4m et deux poutres hybrides de 12m de portée ont été amenées à la rupture en flexion. Ces essais ont montré que le connecteur se brisait sous l’effort de manière ductile avant la rupture fragile de la poutre en bois. Les résultats ont aussi prouvé que les méthodes de calculs utilisées estiment correctement la séquence de rupture ainsi que le comportement du système avec une très grande efficacité. Finalement, un tablier de pont composite a été conçu pour résister aux efforts à l’ultime, en service et à long terme.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les résultats de la cinquième réalisation de l’étude de TIMSS en 2011 montrent la présence d’un faible rendement des élèves iraniens en mathématiques par rapport à la moyenne internationale. Plusieurs facteurs peuvent être à la source de ce faible rendement : programmes d’études, caractéristiques de l’école, qualité des ressources éducatives fournies à l’école ou accessibles aux élèves hors de l’école, etc. (Mullis et coll., 2009; 2012; Coleman et coll., 1966). Ce mémoire est une tentative d’identifier les points faibles probables du contenu géométrique du manuel scolaire de mathématiques de 8e année de l’Iran, en considérant les exigences de TIMSS 2011. Dans cette perspective, cette recherche se focalise sur trois axes d’analyse : la répartition des contenus géométriques dans le manuel des mathématiques, la manière de présenter les concepts et les niveaux de raisonnement exigés par les problèmes du test et par les activités du manuel. L’analyse des résultats obtenus nous a permis de constater plusieurs divergences. Au niveau de la présence des connaissances géométriques, 9 % des connaissances nécessaires à la résolution des questions de TIMSS 2011 sont absentes du manuel. Quant à la présentation des connaissances, 27 % des connaissances sont présentées implicitement dans les manuels. L’utilisation de la grille d’analyse du niveau de raisonnement exigé par les tâches géométriques (Tanguay, 2000), montre que le manuel manque d’exercices mettant en jeu le développement des expériences mentales (35 %). Selon la théorie de Van Hiele (1959), l’insuffisance d’expériences nécessaires pour le développement de la pensée géométrique aux niveaux visuel, descriptif et analytique influencera la construction des concepts et la réussite dans la résolution des problèmes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Depuis 20 ans, les demandes adressées au Programme d’Aide aux Membres du Barreau (PAMBA) sont en constante progression, passant de 120 demandes traitées annuellement en 1996, comparativement à 1 157 demandes en 2016 (PAMBA, 2006, 2016). Ces demandes concernaient notamment la dépression, l’anxiété, le stress, la toxicomanie et l’alcoolisme. En plus de ces problématiques, il s’avère que les avocats présenteraient une proportion plus élevée de dépression, d’alcoolisme, de toxicomanie et de suicide que les autres professionnels (Hill, 1998). Parallèlement, les modèles actuels en stress professionnel (Bakker & Demerouti, 2007; Demerouti, Bakker, Nachreiner, & Schaufeli, 2001; Karasek, 1979; Karasek & Theorell, 1990; Siegrist, 1996) parviennent difficilement à cerner la complexité des déterminants de la détresse psychologique au travail chez les professions issues de l’économie du savoir dont font partie les avocats. En effet, les modèles traditionnels en stress professionnel évacuent les conditions et les contraintes propres aux professions règlementées. De plus, très peu d’études ont été réalisées chez les avocats, et aucune n’a été menée au Québec. Ce mémoire a pour but principal d’identifier les facteurs de risque et de protection qui influencent le stress et la détresse psychologique chez les avocats membres du Barreau du Québec. Ainsi, la présente recherche qualitative de type descriptive et exploratoire a permis de cartographier les facteurs de risque et de protection au stress et à la détresse psychologique, de cartographier les manifestations physiques, psychologiques et comportementales découlant du stress et de la détresse et finalement, de préciser les déterminants susceptibles d’influencer la détresse psychologique chez les avocats du Québec à partir d’un modèle conceptuel de départ inspiré du modèle de Marchand (2004). Pour ce faire, 22 entrevues semi-dirigées ont été menées en Estrie et dans le Grand Montréal auprès de femmes et d’hommes provenant du secteur public ou privé. Une analyse du contenu thématique des données s’inspirant de méthodes propres à la théorisation ancrée fut réalisée à l’aide du logiciel QDA Miner. Prenant appui sur le modèle théorique général d’analyse de la santé mentale de Marchand (2004), l’analyse des résultats a permis d’identifier et de classer hiérarchiquement 158 facteurs de risque et de protection selon les niveaux macro, micro et méso. Il en ressort que la culture professionnelle (macro) de même que les demandes psychologiques, émotionnelles et contractuelles (méso) sont les catégories ayant le plus d’importance dans l’explication du stress et de la détresse psychologique chez les avocats du Québec. Ainsi, la culture professionnelle a principalement trait à la compétitivité dans le milieu juridique et aux impératifs professionnels liés à la performance. Les demandes psychologiques concernent particulièrement la surcharge de travail et d’urgences de même que la complexité des dossiers, alors que les demandes émotionnelles ont trait notamment à la charge émotive importante envers le client et à la difficulté d’établir un détachement personnel vis-à-vis des dossiers traités. Enfin, les demandes contractuelles sont le type de demandes comportant le plus de facteurs (13), dont la majorité constitue des facteurs de risque pour la santé mentale des praticiens interrogés. Elles concernent principalement les longues heures de travail, les heures facturables et la facturation ainsi que la méthode d’évaluation de rendement se basant principalement sur les objectifs d’heures facturables dans le secteur privé. Il est également ressorti que le genre et le secteur de pratique (privé ou publique) influenceraient les stress et la détresse psychologique. Enfin, les retombées théoriques et pratiques, les limites de cette étude de même que les avenues de recherches futures concluent le présent mémoire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les prescrits didactiques et le programme d’Histoire et éducation à la citoyenneté (Gouvernement du Québec, 2007) défendent actuellement des pratiques d’enseignement visant l’apprentissage de la pensée historique. Un apprentissage qui est défini comme une activité intellectuelle inscrite dans une démarche de résolution de problème, permettant de développer une compréhension plus approfondie des réalités sociales dans la perspective du temps (Martineau, 2010). Toutefois, les recherches indiquent que cet apprentissage serait variablement intégré aux pratiques effectives dans les classes d’histoire (Levstik, 2008), notamment au Québec (Boutonnet, 2013; Moisan, 2010). À cet égard, il semblerait y avoir un écart entre les finalités auxquelles les enseignants adhèrent et les situations d’enseignement-apprentissage qu’ils mettent en œuvre. Pour mettre en lumière cette variabilité, nous avons réalisé une recherche exploratoire visant à décrire les pratiques d’enseignement en histoire en troisième et en quatrième années du secondaire. À cette fin, nous avons eu recours aux théories des représentations sociales (Moscovici, 1976) et de l’attribution (Deschamps, 1996) permettant de recenser, dans le savoir commun des enseignants d’histoire, des éléments relatifs à l’apprentissage de la pensée historique. Ce savoir a été analysé en fonction de quatre types de variables : l’opinion, les dispositifs d’enseignement, les attributions et les attitudes individuelles à l’égard de l’apprentissage de la pensée historique. Les données ont été recueillies auprès d’un échantillon de convenance de huit enseignants, et elles ont été analysées dans le cadre d’une approche lexicométrique. La procédure de cueillette a consisté à réaliser quatre entrevues auprès de chacun de ces enseignants, lors des phases préactive et postactive de trois situations d’enseignement-apprentissage, pour identifier par la récurrence des discours des propriétés invariantes. Les données ont été interprétées en fonction de deux types de fondement théorique, relatifs aux théories de l’apprentissage, illustrant différentes manières d’apprendre à penser historiquement, et aux modèles de pratique, décrivant des dispositifs séquencés d’enseignement associés à cet apprentissage. De manière générale, les résultats révèlent la prédominance des théories de l’apprentissage de sens commun, socioconstructiviste et cognitivo-rationaliste, ainsi que des modèles de pratique fondés sur la conceptualisation et le tâtonnement empirique. Même si cette recherche ne peut être considérée représentative, elle a comme principale retombée scientifique de livrer une description de pratiques nuancée, exprimant différentes modulations de l’apprentissage de la pensée historique au niveau des pratiques. Cette recherche contribue à alimenter la réflexion auprès des chercheurs, des formateurs et des enseignants qui pourront mettre en perspective les pratiques actuelles relatives à un apprentissage des plus importants en histoire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé : Malgré le nombre croissant de capteurs dans les domaines de la chimie et la biologie, il reste encore à étudier en profondeur la complexité des interactions entre les différentes molécules présentes lors d’une détection à l’interface solide-liquide. Dans ce cadre, il est de tout intérêt de croiser différentes méthodes de détection afin d’obtenir des informations complémentaires. Le principal objectif de cette étude est de dimensionner, fabriquer et caractériser un détecteur optique intégré sur verre basé sur la résonance plasmonique de surface, destiné à terme à être combiné avec d’autres techniques de détection, dont un microcalorimètre. La résonance plasmonique de surface est une technique reconnue pour sa sensibilité adaptée à la détection de surface, qui a l’avantage d’être sans marquage et permet de fournir un suivi en temps réel de la cinétique d’une réaction. L’avantage principal de ce capteur est qu’il a été dimensionné pour une large gamme d’indice de réfraction de l’analyte, allant de 1,33 à 1,48. Ces valeurs correspondent à la plupart des entités biologiques associées à leurs couches d’accroche dont les matrices de polymères, présentés dans ce travail. Étant donné que beaucoup d’études biologiques nécessitent la comparaison de la mesure à une référence ou à une autre mesure, le second objectif du projet est d’étudier le potentiel du système SPR intégré sur verre pour la détection multi-analyte. Les trois premiers chapitres se concentrent sur l’objectif principal du projet. Le dimensionnement du dispositif est ainsi présenté, basé sur deux modélisations différentes, associées à plusieurs outils de calcul analytique et numérique. La première modélisation, basée sur l’approximation des interactions faibles, permet d’obtenir la plupart des informations nécessaires au dimensionnement du dispositif. La seconde modélisation, sans approximation, permet de valider le premier modèle approché et de compléter et affiner le dimensionnement. Le procédé de fabrication de la puce optique sur verre est ensuite décrit, ainsi que les instruments et protocoles de caractérisation. Un dispositif est obtenu présentant des sensibilités volumiques entre 1000 nm/RIU et 6000 nm/RIU suivant l’indice de réfraction de l’analyte. L’intégration 3D du guide grâce à son enterrage sélectif dans le verre confère au dispositif une grande compacité, le rendant adapté à la cointégration avec un microcalorimètre en particulier. Le dernier chapitre de la thèse présente l’étude de plusieurs techniques de multiplexage spectral adaptées à un système SPR intégré, exploitant en particulier la technologie sur verre. L’objectif est de fournir au moins deux détections simultanées. Dans ce cadre, plusieurs solutions sont proposées et les dispositifs associés sont dimensionnés, fabriqués et testés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche porte sur la proposition d’une tâche d’évaluation en situation authentique et de sa grille d’évaluation formative dans le réseau collégial et des défis qu’elle soulève en regard de sa pertinence dans la discipline des mathématiques. Plus précisément, les difficultés posées par l’évaluation en général avec l’implantation de l’approche par compétences (APC) seront abordées. Une proposition d’une nouvelle approche sera faite dans le but de nous assurer d’une cohérence entre les évaluations proposées aux étudiantes et étudiants du 2e cycle du secondaire et la 1ère session au collégial. Nous allons également proposer des situations problématiques qui permettent à l’étudiante et l’étudiant de mobiliser ses ressources dans le cadre du cours Calcul Différentiel.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude examine l'effet de la révision du chapitre 3480 du Manuel de l'I.C.C.A. relatif aux éléments extraordinaires sur la valeur prédictive du bénéfice avant éléments extraordinaires. Le choix du critère de la valeur prédictive repose sur le fait que l'I.C.C.A. reconnaît qu'il s'agit ici d'une caractéristique essentielle à l'obtention d'une information comptable utile. Ainsi, le resserrement de la définition des éléments extraordinaires par l'ajout d'un troisième critère a contribué à une réduction du nombre de ces éléments dans les états financiers des entreprises canadiennes. En effet, la description de l'échantillon a montré que plusieurs catégories d'éléments extraordinaires considérées avant la révision de la norme canadienne dans la partie non courante de l'état des résultats sont déplacées, par l'effet de la révision, à la partie courante de cet état. L'examen des éléments inhabituels après la révision a permis de retrouver la majorité des éléments qui auraient pus être qualifiés d'extraordinaires si on avait appliqué l'ancienne définition. Les éléments qui ne satisfont pas les trois critères sont, en fait, considérés dans le calcul du bénéfice mais sont maintenant présentés dans la partie courante de l'état des résultats. Le bénéfice avant éléments extraordinaires incluera dorénavant un plus grand nombre d'éléments non récurrents. Par conséquent, il est possible que l'ajout du troisième critère à la définition des éléments extraordinaires entraine une diminution de la valeur prédictive du bénéfice avant éléments extraordinaires. La période d'analyse s'étale sur les six années qui entourent la révision, soit trois ans avant la révision (1987, 1988 et 1989) et trois ans après la révision (1990, 1991 et 1992). Le modèle auto régressif de premier ordre a été retenu pour la prédiction des bénéfices par action avant éléments extraordinaires de chaque période. Les résultats obtenus suggèrent que la valeur prédictive du bénéfice par action avant éléments extraordinaires a diminué à la suite de la révision du chapitre 3480 du Manuel. Il ressort de cette étude que les débats sur la manière dont les éléments extraordinaires devraient être définis et présentés dans les états des résultats des entreprises canadiennes ne sont pas résolus par cette révision.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nombreuses sont les recherches qui traitent de la participation des membres en coopérative, tantôt du point de vue historique et sociologique, tantôt du point de vue économique. Parfois, on s'interroge sur l'effervescence de la participation, parfois on questionne l'affaissement de la participation chez les membres coopérateurs. Cette étude en sera donc une de plus, mais elle se veut différente car elle s'attaque aux racines mêmes du problème, soit l'opportunité de participation offerte aux membres par l'entreprise. Comme cette recherche se situe à l'ère de la carte de paiement, ceci nous &M'aime à justifier le choix de cette année précise, 1984, laquelle voit s'opérer l'action des guichets automatiques et les changements d'habitudes des membres à travers cette nouvelle technologie. Nous nous situons aujourd'hui à une époque charnière, celle qui tranche avec les services aux membres, dits de type conventionnel (épargne, crédit, services auxiliaires) et celle qui emprunte au développement informatique et qui transforme les services, les habitudes, la participation des membres. De nouveaux services permettent désormais au membre de la Caisse populaire d'opérer la plupart de ses transactions sept (7) jours par semaine et ce, hors caisse populaire, c'est-à-dire hors entreprise. Alors, que devient l'association dans ce contexte? Si on s'entend pour dire qu'une coopérative réunit deux (2) réalités, c'est-à-dire l'association et l'entreprise, comment peut-on parler de coopérative si l'association ne "s'exprime" plus, ne "s'articule" plus par rapport à l'entreprise? A notre avis, ces deux (2) réalités doivent toujours s'y retrouver, sans quoi on ne peut parler de véritable coopérative, les clients de banque en font autant. C'est dans cette optique donc, que nous abordons la problématique de la participation. Nous croyons en définitive, que si l'entreprise favorise l'intégration du membre et à sa structure et à son organisation, que ces nouveaux lieux pourront être source de participation nouvelle. Avant d'élaborer le profil des chapitres qui composeront cette étude, il nous apparaît important de signaler que lorsque nous parlerons de coopérative d'épargne et de crédit, de conseils, de commission, de dirigeants, membres, association et entreprise, nous ferons exclusivement référence au concept "Caisse populaire Desjardins". Ceci dit, au départ, nous tenterons un rapprochement entre la théorie et la réalité participative, puis nous considérerons la diversité du phénomène participatif et du développement possible dont il peut faire l'objet. Enfin, nous aborderons l'hypothèse avancée. Dans un second chapitre, nous examinerons la méthode utilisée, ce qui nous mènera au chapitre suivant qui lui traitera des résultats détaillés, venant vérifier la question du départ. Enfin, nous considérerons une dernière fois l'hypothèse et cette fois à la lueur de la caisse de demain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La séparation du contrôle et du financement de l'entreprise, mise en lumière par Berle et Means dans les années 1930, allait remettre en question la théorie micro-économique de la firme, plus précisément l'hypothèse néoclassique de la maximisation des profits. L'argument central résumant la pensée de Berle & Means (1932) est que lorsque la propriété de la firme est diffuse, particulièrement dans les cas où il y a un grand nombre d'actionnaires minoritaires, les dirigeants vont employer les ressources de manière à satisfaire leurs ambitions plutôt que de maximiser la richesse des actionnaires. Ainsi, selon la théorie de l'agence, les gestionnaires (les agents) pourraient avoir d'autres buts que la maximisation de l'avoir des actionnaires (le principal). Il est également vrai, que pour diverses raisons, les actionnaires ont d'autres visées que la maximisation des profits, les actionnaires, par exemple, pourraient être averses au risque…