974 resultados para Processus stochastiques
Development of new scenario decomposition techniques for linear and nonlinear stochastic programming
Resumo:
Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.
Resumo:
Ce mémoire s’intéresse aux processus de formation de mots. Nous postulons que les notions de productivité et de polysémie guident les locuteurs dans la sélection des procédés de formation de mots. Afin de vérifier notre hypothèse, nous avons porté nos observations sur un répertoire de mots suffixés de l’espagnol, le « Diccionario de los sufijos de la lengua española (DISULE) » de Faitelson-Weiser (2010, cf. www.sufijos.lli.ulaval.ca ). Nous avons évalué les degrés de productivité et de polysémie de chaque segment identifié comme étant un suffixe. Nous avons ensuite mis en relation les valeurs obtenues pour chacune des propriétés. Cette démarche, que nous avons testée, reconnaît le morphème comme unité d’analyse, ce qui se correspond au modèle grammatical Item et arrangement (Hockett, 1954). Bien que le résultat de nos analyses ne nous permette pas d’établir des corrélations fortes entre les deux variables pour l’ensemble des suffixes, lorsque nous délimitons des contextes de concurrence spécifiques, nous pouvons constater que les relations entre productivité et polysémie suivent des patrons spécifiques à ceux-ci. En outre, nous remarquons que le modèle adopté est plus efficace dans la description de la polysémie que pour expliquer la productivité; ce qui nous amène à nous questionner sur la pertinence de l’opposition établie entre mot et morphème en tant qu’unités d’analyse. Nous concluons que les deux notions sont essentielles en morphologie.
Resumo:
La présente étude explore la trajectoire de vie d’un détenu condamné à une peine à perpétuité qui bénéficie d’une libération conditionnelle totale afin d’identifier laquelle ou lesquelles des cinq grandes conceptualisations théoriques du désistement criminel permettent le mieux d’expliquer sa trajectoire de désistement. Pour atteindre cet objectif, une méthodologie qualitative de type exploratoire a été privilégiée. Un homme purgeant une peine à perpétuité dans la collectivité a été rencontré en contexte d’entretiens afin de restituer en profondeur son histoire de vie et cerner, à la lumière des théories recensées, les concepts applicables à son désistement criminel. Une série de neuf entretiens d’environ une heure et demie a été réalisée. Le récit de vie de monsieur P est présenté et analysé pour illustrer l’applicabilité des principales conceptualisations théoriques du désistement criminel qui ont été recensées dans le présent mémoire. L’analyse des données recueillies a permis de faire ressortir l’importance de considérer le concept identitaire dans le processus de désistement et le changement psychologique qui l’accompagne. La discussion aborde quelques pistes d’interventions susceptibles de soutenir le travail des membres du personnel qui œuvrent auprès des délinquants qui purgent de longues peines. Celles-ci prennent en compte les défis posés par la clientèle particulière des détenus à perpétuité et cherchent à maximiser leur réintégration sociale lors de leur mise en liberté.
Resumo:
Le financement des municipalités québécoises repose en majeure partie sur des revenus autonomes, dont la principale source découle de leur pouvoir de taxer la richesse foncière. Par conséquent, le législateur, voulant assurer la stabilité financière des municipalités, a strictement encadré le processus de confection et de révision des évaluations foncières par plusieurs lois et règlements. Ceci n’a tout de même pas empêché l’augmentation des demandes de contestations à chaque nouveau rôle. Débutant par une demande de révision administrative, à l’aide d’un simple formulaire, le litige entre la municipalité et le contribuable peut se poursuivre devant le Tribunal administratif du Québec et même la Cour du Québec, la Cour supérieure et la Cour d’appel, où la procédure devient de plus en plus exigeante. La transition du processus administratif à judiciaire crée parfois une certaine friction au sein de la jurisprudence, notamment au niveau de la déférence à accorder à l’instance spécialisée, ou encore à l’égard de la souplesse des règles de preuve applicables devant cette dernière. Par une étude positiviste du droit, nous analysons tout d’abord la procédure de confection du rôle foncier, en exposant les acteurs et leurs responsabilités, ainsi que les concepts fondamentaux dans l’établissement de la valeur réelle des immeubles. Ensuite, nous retraçons chacune des étapes de la contestation d’une inscription au rôle, en y recensant les diverses règles de compétence, de preuve et de procédure applicables à chaque instance. À l’aide de nombreux exemples jurisprudentiels, nous tentons de mettre en lumière les différentes interprétations que font les tribunaux de la Loi sur la fiscalité municipale et autres législations connexes.
Resumo:
L’objectif de cette étude qualitative est de décrire et de comprendre le processus décisionnel sous-jacent à la rétroaction corrective d’un enseignant de langue seconde à l’oral. Pour ce faire, elle décrit les principaux facteurs qui influencent la décision de procéder à une rétroaction corrective ainsi que ceux qui sous-tendent le choix d’une technique de rétroaction particulière. Trois enseignantes de français langue seconde auprès d’un public d’adultes immigrants au Canada ont participé à cette recherche. Des séquences complètes d’enseignement ont été filmées puis présentées aux participantes qui ont commenté leur pratique. L’entretien de verbalisation s’est effectué sous la forme d’un rappel stimulé et d’une entrevue. Cet entretien constitue les données de cette étude. Les résultats ont révélé que la rétroaction corrective ainsi que le choix de la technique employée étaient influencés par des facteurs relatifs à l’erreur, à l’apprenant, au curriculum, à l’enseignant et aux caractéristiques des techniques. Ils ont également révélé que l’apprenant est au cœur du processus décisionnel rétroactif des enseignants de langue seconde. En effet, les participantes ont affirmé vouloir s’adapter à son fonctionnement cognitif, à son état affectif, à son niveau de langue et à la récurrence de ses erreurs. L’objectif de cette étude est d’enrichir le domaine de la formation initiale et continue des enseignants de L2. Pour cela, des implications pédagogiques ont été envisagées et la recommandation a été faite de porter à la connaissance des enseignants de L2 les résultats des recherches sur l’efficacité des techniques de rétroaction corrective, particulièrement celles qui prennent en compte les caractéristiques des apprenants.
Resumo:
Ce mémoire analyse le processus de romanisation et de colonisation de Xanten-Vetera, une région frontalière de l’Empire romain située en basse Rhénanie dans la province romaine de Germania inferior. À l’intérieur d’un cadre temporel inclus entre les conquêtes de Jules César et le milieu du second siècle apr. J.-C., l’étude cherche à comprendre et à restituer la présence militaire ainsi que le développement des peuplades civiles sur place, du fait des transferts de population et de l’immigration gallo-romaine. Le processus de romanisation est analysé en tenant compte des réalités ethnographiques, sociales et culturelles et selon les théories les plus actuelles de la recherche moderne sur ce sujet. Comme il s’agit d’une agglomération située sur une voie fluviale en périphérie de l’Empire, le concept de « frontière » y est évalué afin d’estimer si Xanten-Vetera constituait une zone de convergence ou de divergence par rapport à l’espace rhénan. Dans un deuxième temps, cette recherche analyse le contexte militaire et social durant lequel l’empereur Trajan prit la décision d’octroyer le statut de colonie à ce territoire qui devint la Colonia Ulpia Traiana. Cette démarche qui se veut régionale souligne la nature particulière de l’histoire de Xanten-Vetera sous le Haut Empire ; les migrations et les tragédies à l’intérieur de cet espace géographique ont façonné un endroit au destin unique en Germanie et dans l’Empire romain. Enfin, ce travail fournit un exemple pertinent de l’évolution des motivations qui ont guidé les politiques coloniales sous les Julio-Claudiens, les Flaviens et les Antonins et suggère l’essor des groupes de pression non militaires dans ce contexte.
Resumo:
Le sepsis, un syndrome d’infection générale grave, est une importante cause de décès dans le monde et a un impact considérable sur le taux de mortalité dans le département des soins intensifs des hôpitaux. Plusieurs médecins soutiennent que le diagnostic de sepsis est fréquemment omis, menant ainsi à de graves conséquences pour l’état de santé du patient. Considérant cette problématique, la présente étude a pour buts de déterminer les caractéristiques du processus décisionnel des médecins en situation de triage et de prise en charge du sepsis pédiatrique, d’évaluer la performance des médecins en contexte de détection du sepsis pédiatrique et enfin, de valider une méthode permettant de développer un modèle cognitif de prise de décision relié à cette condition médicale. Une tâche décisionnelle à l’aide d’un tableau d’information est administrée aux participants. Les résultats sont analysés selon une combinaison de méthodes : la théorie de détection de signal, l’identification de la règle décisionnelle et l’extraction du processus décisionnel. Le personnel médical a une capacité de discrimination moyenne. Leurs réponses tendent vers un biais libéral. La comparaison entre un arbre décisionnel normatif et les arbres décisionnels individuels a démontré une mésestimation de l’importance des critères diagnostics pertinents. Il y a présence d’hétérogénéité quant aux critères utilisés par les médecins pour poser le diagnostic. Ces résultats permettent de cibler davantage la problématique de détection du sepsis pédiatrique et démontre la pertinence de développer un outil d’aide à la détection afin de soutenir les médecins dans leurs décisions. Les résultats de la présente étude fournissent des lignes directrices quant au développement d’un tel outil. Les résultats montrent également que la combinaison de la théorie de détection de signal, de l’identification de la règle décisionnelle et de l’extraction du processus décisionnel fournie une méthode adaptée afin de développer des modèles de prise de décision.
Resumo:
L’objectif de cette maîtrise est de développer une matrice alimentaire sans gluten par l’incorporation des protéines de canola (PC) dans une farine de riz blanc afin d’offrir aux personnes intolérantes au gluten un produit de bonne qualité d’un point de vue organoleptique (volume massique, structure alvéolaire et couleur) et de valeur nutritionnelle. La matrice sélectionnée est du pain à base de farine de riz blanc. Cinq formulations ont été testées dans la première partie de ce travail : témoin-1 (blé tendre), témoin-2 (100% riz), pain de riz +3% PC, pain de riz + 6% PC, pain de riz + 9% PC. Les produits obtenus ont été caractérisés à toutes les étapes de fabrication en utilisant différentes techniques : poussée volumique, variation thermique au cours des étuvages et de la cuisson, pH (acidité), perte d’eau, volume massique, analyse colorimétrique, dosage des protéines et analyse du profil de la texture. Dans la deuxième partie, deux variables indépendantes ont été additionnées; soit shortening (1, 2, 3%) et gomme de xanthane (0.5, 1, 1.5%), dans le but d’améliorer le volume massique de la meilleure formulation obtenue dans l’étape précédente. Ensuite, des essais de correction ont été attribués aux produits obtenus par l’introduction du bicarbonate de sodium (0.5, 1, 1.5%) et d’huile de canola à la place du shortening (1, 2, 3%). Les tests de panification ont donné différents volumes massiques et structures alvéolaires qui étaient jugés de qualité inférieure à celle du témoin-1 (2.518 mL/g), mais largement supérieure à celle du témoin-2 (1.417 mL/g). Le meilleur volume massique obtenu est de 1.777 mL/g, correspondant à celui du pain obtenu par la combinaison 6%PC+0.5%GH+B 1.5%+ H3%. Finalement, les résultats de ce projet ont montré l’impact positif de l’incorporation des protéines de canola dans un pain sans gluten à base de farine de riz blanc. Ce travail constitue une contribution à la possibilité de substituer le gluten par d’autres protéines ayant de bonnes propriétés techno-fonctionnelles, en particulier la capacité à donner du volume au produit final.
Resumo:
La consommation d’aliments biologiques croît depuis plusieurs années. Malgré cette croissance, la majorité des consommateurs d’aliments biologiques sont des consommateurs intermittents : leur consommation alimentaire n’est pas uniquement composée d’aliments biologiques, mais en comprend une part variable. Bien que majoritaires, ces consommateurs ont été l’objet de très peu de recherches, et demeurent mal connus. Cette étude exploratoire s’intéresse aux raisons qui conduisent ces consommateurs à opter ou non pour la version biologique d’un aliment. À partir de 24 entretiens individuels semi-dirigés, une restitution du processus de choix des répondants est proposée. Les résultats montrent que la décision d’opter pour le biologique est directement liée à un problème identifié avec l’offre non biologique, problème qui change selon le type d’aliment considéré et entre en contradiction avec les valeurs du répondant. L’option biologique est évaluée en fonction de la gravité du problème perçue par le répondant et de la capacité de l’option biologique à y répondre. Pour un même répondant, le caractère biologique d’un aliment est ainsi d’une importance variable pour différents aliments. Les stratégies mises en place en cas d’indisponibilité de l’option biologique sont également variables, allant de l’abstention complète de l’aliment à la consommation de la version non biologique, sous certaines conditions. Cette étude montre la grande diversité des raisons qui mènent les consommateurs à opter pour le biologique. Elle souligne également la nécessité de prendre en compte l’offre non biologique pour comprendre les consommateurs intermittents d’aliments biologiques.
Resumo:
Les étudiantes et étudiants inscrits dans le programme technique Informatique de gestion au collégial ont comme tâche de concevoir, coder et mettre au point divers programmes informatiques. La capacité pour réaliser cette dernière tâche, soit la mise au point de programmes ou débogage de programmes, est très peu développée chez les élèves. Ils ne prennent pas le temps de vérifier si leurs programmes fonctionnent adéquatement. Selon les superviseurs de stage en milieu de travail, ils ne testent pas assez leurs programmes. La procédure pour supprimer les erreurs de programmation qui leur est proposée ne semble pas suffisante en elle-même pour les soutenir dans leur apprentissage. Les ouvrages consultés sur le sujet de la métacognition nous incitent à penser qu’il manque à la procédure de débogage générale une dimension métacognitive qui pourrait leur être enseignée. L’objectif de cette recherche est de développer une stratégie pédagogique socioconstructiviste intervenant sur la métacognition pour soutenir le développement de la capacité à déboguer des programmes informatiques et à améliorer le sentiment d’auto-efficacité des élèves face à cette tâche. L’autoquestionnement semble être une stratégie métacognitive à développer chez les élèves, car il est primordial que les élèves se questionnent avant de débuter et pendant une tâche quelconque, en particulier celle du débogage de programmes. Trop souvent, les élèves escamotent cette étape d’auto-questionnement, ils ont trop hâte de pianoter sur l’ordinateur et voir si cela fonctionne. Notre type d’essai consiste en l’élaboration d’une intervention pédagogique, sa validation et sa mise à l’essai auprès des élèves. Le matériel nécessaire pour l’intervention a été tiré et adapté du livre sur la métacognition de Lafortune et St-Pierre. Plusieurs activités d’apprentissage ont été construites pour ce projet : un exercice de prise de conscience sur des stratégies d’apprentissage efficaces, une activité d’autoévaluation pour vérifier les connaissances des étudiantes et étudiants sur le débogage de programmes et une troisième activité concernant la planification du processus de résolution de problèmes qui a été reprise tout le long de la session. Ces activités ont été mises à l’essai auprès d’un groupe d’étudiants de 2e année en Technique Informatique à la session Hiver 2004. Les résultats de cette mise à l’essai sont intéressants. Dans un premier temps, l’objectif concernant le développement des habiletés métacognitives de planification a été atteint. De même, le développement de la démarche de débogage a été nettement amélioré, car au début, la démarche était très générale et peu efficace tandis qu’à la fin, la démarche était beaucoup plus structurée et détaillée. L’atteinte de l’objectif, concernant le sentiment d’autoefficacité des élèves, est difficile à évaluer car l’objectif semblait être déjà présent au début selon leurs réponses au questionnaire initial. Cela est très surprenant, car les élèves n’ont pas nécessairement une bonne démarche de débogage mais ils pensent que leur démarche est efficace. Les retombées de ce projet ont permis d’approfondir mes connaissances personnelles au sujet de la métacognition, de l’approche socioconstructiviste et du sentiment d’autoefficacité. En ce qui concerne les élèves, ils ont pris conscience de l’importance du débogage de programmes dans leurs fonctions de travail et ils possèdent une procédure efficace de débogage générale qu’ils peuvent utiliser en tout temps. La stratégie pédagogique, les activités prévues et les outils utilisés nécessitent certains ajustements. Entre autres, utiliser davantage la technique du modelage par le professeur en classe et modifier la procédure générale de débogage en la schématisant pour développer davantage l’autoquestionnement chez les élèves.
Resumo:
L'objectif de cet essai est de proposer une manière de favoriser la formation d'intervenantes et intervenants efficaces en relation d'aide. Plus précisément, il vise à expliquer de manière concrète un moyen de favoriser la formation d'intervenantes et d'intervenants efficaces en orientation, par le biais des supervisions suivies dans le cadre du baccalauréat en orientation de l'Université de Sherbrooke.
Resumo:
De récentes recherches ont mis l’accent sur l’importance pour les nouvelles entreprises internationales de l’existence de ressources et de compétences spécifiques. La présente recherche, qui s’inscrit dans ce courant, montre en particulier l’importance du capital humain acquis par les entrepreneurs sur base de leur expérience internationale passée. Mais nous montrons en même temps que ces organisations sont soutenues par une intention délibérée d’internationalisation dès l’origine. Notre recherche empirique est basée sur l’analyse d’un échantillon de 466 nouvelles entreprises de hautes technologies anglaises et allemandes. Nous montrons que ce capital humain est un actif qui facilite la pénétration rapide des marchés étrangers, et plus encore quand l’entreprise nouvelle est accompagnée d’une intention stratégique délibérée d’internationalisation. Des conclusions similaires peuvent être étendues au niveau des ressources que l’entrepreneur consacre à la start-up : plus ces ressources sont importantes, plus le processus d’internationalisation tend à se faire à grande échelle ; et là aussi, l’influence de ces ressources est augmenté par l’intention stratégique d’internationalisation. Dans le cadre des études empiriques sur les born-globals (entreprises qui démarrent sur un marché globalisé), cette recherche fournit une des premières études empiriques reliant l’influence des conditions initiales de création aux probabilités de croissance internationale rapide.
Resumo:
Cette présentation met en avant la Théorie des Littératies Multiples (TLM) et l’importance de lire, lire le monde et se lire, dans le but de se transformer en contexte plurilingue. La première partie de cette communication sera consacrée à la présentation des principes fondamentaux de la TLM. Il est vrai que la littératie valorisée par l’école est souvent celle qui est la plus prisée dans la recherche et l’enseignement. La TLM enlève la littératie scolaire de sa place privilégiée et l’insère dans un agencement de littératies au foyer, à l’école et dans la communauté. Les littératies, en tant que construit renvoient aux mots, aux gestes, aux attitudes, ou plus exactement, aux façons de parler, de lire, d’écrire et de valoriser les réalités de la vie. Elles sont une façon de devenir avec le monde. Les littératies constituent des textes au sens large (comme par exemple, la musique, l’art, la physique et les athématiques) qui peuvent être visuels,oraux, écrits, tactiles,olfactifs ou numériques. Elles se fusionnent aux contextes sociopolitiques, culturels, économiques, genrés et racialisés, qui de par leur caractère mobile et fluide transforment les littératies génératrices de locuteurs, de scripteurs, d’artistes, d’ava tars et de communautés. Les littératies prennent leur sens en contexte, dans le temps et l’espace où on se trouve De ce fait, leur actualisation n’est pas prédéterminée et est imprévisible. La TLM s’intéresse aux rôles joués par les littératies. Lire, lire le monde et se lire a pour fonction importante entre autres de transformer une vie, une communauté et une société. La deuxième partie de cette communication sera consacrée à un projet de recherche ayant pour objectif d’explorer la façon dont des enfants acquièrent simultanément deux ou plusieurs systèmes d’écriture. Des enfants âgés de 5 à 8 ans ont participé à des activités filmées en salle de classe, au foyer et dans leur quartier. Puis des entretiens ont été menés avec les enfants, leurs parents et leurs enseignants. Ce projet nous permet de mieux saisir ce que signifient en contexte plurilingue les littératies en tant que processus. Le projet s’intéresse à ce qu’implique lire, lire le monde et se lire à l’école, au foyer et dans la communauté. Dans une société pluraliste, nous sommes plus que jamais ensibilisés aux contextes particuliers dans lesquels lire, lire le monde et se lire s’actualisent, qu’il s’agisse d’un nouvel arrivant ou d’une personne vivant en milieu minoritaire.
Resumo:
L'intérêt suscité par la ré-ingénierie des processus et les technologies de l'information révèle l'émergence du paradigme du management par les processus. Bien que beaucoup d'études aient été publiées sur des outils et techniques alternatives de modélisation de processus, peu d'attention a été portée à l'évaluation post-hoc des activités de modélisation de processus ou à l'établissement de directives sur la façon de conduire efficacement une modélisation de processus. La présente étude a pour objectif de combler ce manque. Nous présentons les résultats d'une étude de cas détaillée, conduite dans une organisation leader australienne dans le but de construire un modèle de réussite de la modélisation des processus.
Resumo:
This paper sets out to contribute to the literature on the design and the implementation of management control systems. To this end, we question what is discussed when a management control system is to be chosen and on what decision-making eventually rests. This study rests upon an ethnomethodology of the Salvation Army’s French branch. Operating in the dual capacity of a researcher and a counsellor to management, between 2000 and 2007, we have unrestricted access to internal data revealing the backstage of management control: discussions and interactions surrounding the choosing of control devices. We contribute to understanding the arising of a need for control, the steps and process followed to decide upon a management control system, and controls in nonprofits. [Cet article vise à contribuer à la littérature sur la mise en place des systèmes de contrôle de gestion. À cette fin, nous questionnons ce qui est discuté lors du choix d’un système de contrôle et sur quoi repose in fine la décision. Cet article est fondé sur une approche ethnométhodologique de l’Armée du Salut en France permise par notre double qualité de chercheurs mais également de conseiller auprès de la direction de l’organisation entre 2000 et 2007. Un accès illimité à des données internes nous permet ainsi de mettre en lumière les aspects méconnus et invisibles du contrôle de gestion : les discussions et interactions entourant le choix d’outils. Nous contribuons à la compréhension de l’émergence du besoin de contrôle, des étapes et du processus de choix d’outils et enfin du contrôle de gestion dans une organisation à but non lucratif.]