969 resultados para processus de Wiener
Resumo:
Le financement des municipalités québécoises repose en majeure partie sur des revenus autonomes, dont la principale source découle de leur pouvoir de taxer la richesse foncière. Par conséquent, le législateur, voulant assurer la stabilité financière des municipalités, a strictement encadré le processus de confection et de révision des évaluations foncières par plusieurs lois et règlements. Ceci n’a tout de même pas empêché l’augmentation des demandes de contestations à chaque nouveau rôle. Débutant par une demande de révision administrative, à l’aide d’un simple formulaire, le litige entre la municipalité et le contribuable peut se poursuivre devant le Tribunal administratif du Québec et même la Cour du Québec, la Cour supérieure et la Cour d’appel, où la procédure devient de plus en plus exigeante. La transition du processus administratif à judiciaire crée parfois une certaine friction au sein de la jurisprudence, notamment au niveau de la déférence à accorder à l’instance spécialisée, ou encore à l’égard de la souplesse des règles de preuve applicables devant cette dernière. Par une étude positiviste du droit, nous analysons tout d’abord la procédure de confection du rôle foncier, en exposant les acteurs et leurs responsabilités, ainsi que les concepts fondamentaux dans l’établissement de la valeur réelle des immeubles. Ensuite, nous retraçons chacune des étapes de la contestation d’une inscription au rôle, en y recensant les diverses règles de compétence, de preuve et de procédure applicables à chaque instance. À l’aide de nombreux exemples jurisprudentiels, nous tentons de mettre en lumière les différentes interprétations que font les tribunaux de la Loi sur la fiscalité municipale et autres législations connexes.
Resumo:
L’objectif de cette étude qualitative est de décrire et de comprendre le processus décisionnel sous-jacent à la rétroaction corrective d’un enseignant de langue seconde à l’oral. Pour ce faire, elle décrit les principaux facteurs qui influencent la décision de procéder à une rétroaction corrective ainsi que ceux qui sous-tendent le choix d’une technique de rétroaction particulière. Trois enseignantes de français langue seconde auprès d’un public d’adultes immigrants au Canada ont participé à cette recherche. Des séquences complètes d’enseignement ont été filmées puis présentées aux participantes qui ont commenté leur pratique. L’entretien de verbalisation s’est effectué sous la forme d’un rappel stimulé et d’une entrevue. Cet entretien constitue les données de cette étude. Les résultats ont révélé que la rétroaction corrective ainsi que le choix de la technique employée étaient influencés par des facteurs relatifs à l’erreur, à l’apprenant, au curriculum, à l’enseignant et aux caractéristiques des techniques. Ils ont également révélé que l’apprenant est au cœur du processus décisionnel rétroactif des enseignants de langue seconde. En effet, les participantes ont affirmé vouloir s’adapter à son fonctionnement cognitif, à son état affectif, à son niveau de langue et à la récurrence de ses erreurs. L’objectif de cette étude est d’enrichir le domaine de la formation initiale et continue des enseignants de L2. Pour cela, des implications pédagogiques ont été envisagées et la recommandation a été faite de porter à la connaissance des enseignants de L2 les résultats des recherches sur l’efficacité des techniques de rétroaction corrective, particulièrement celles qui prennent en compte les caractéristiques des apprenants.
Resumo:
Ce mémoire analyse le processus de romanisation et de colonisation de Xanten-Vetera, une région frontalière de l’Empire romain située en basse Rhénanie dans la province romaine de Germania inferior. À l’intérieur d’un cadre temporel inclus entre les conquêtes de Jules César et le milieu du second siècle apr. J.-C., l’étude cherche à comprendre et à restituer la présence militaire ainsi que le développement des peuplades civiles sur place, du fait des transferts de population et de l’immigration gallo-romaine. Le processus de romanisation est analysé en tenant compte des réalités ethnographiques, sociales et culturelles et selon les théories les plus actuelles de la recherche moderne sur ce sujet. Comme il s’agit d’une agglomération située sur une voie fluviale en périphérie de l’Empire, le concept de « frontière » y est évalué afin d’estimer si Xanten-Vetera constituait une zone de convergence ou de divergence par rapport à l’espace rhénan. Dans un deuxième temps, cette recherche analyse le contexte militaire et social durant lequel l’empereur Trajan prit la décision d’octroyer le statut de colonie à ce territoire qui devint la Colonia Ulpia Traiana. Cette démarche qui se veut régionale souligne la nature particulière de l’histoire de Xanten-Vetera sous le Haut Empire ; les migrations et les tragédies à l’intérieur de cet espace géographique ont façonné un endroit au destin unique en Germanie et dans l’Empire romain. Enfin, ce travail fournit un exemple pertinent de l’évolution des motivations qui ont guidé les politiques coloniales sous les Julio-Claudiens, les Flaviens et les Antonins et suggère l’essor des groupes de pression non militaires dans ce contexte.
Resumo:
Le sepsis, un syndrome d’infection générale grave, est une importante cause de décès dans le monde et a un impact considérable sur le taux de mortalité dans le département des soins intensifs des hôpitaux. Plusieurs médecins soutiennent que le diagnostic de sepsis est fréquemment omis, menant ainsi à de graves conséquences pour l’état de santé du patient. Considérant cette problématique, la présente étude a pour buts de déterminer les caractéristiques du processus décisionnel des médecins en situation de triage et de prise en charge du sepsis pédiatrique, d’évaluer la performance des médecins en contexte de détection du sepsis pédiatrique et enfin, de valider une méthode permettant de développer un modèle cognitif de prise de décision relié à cette condition médicale. Une tâche décisionnelle à l’aide d’un tableau d’information est administrée aux participants. Les résultats sont analysés selon une combinaison de méthodes : la théorie de détection de signal, l’identification de la règle décisionnelle et l’extraction du processus décisionnel. Le personnel médical a une capacité de discrimination moyenne. Leurs réponses tendent vers un biais libéral. La comparaison entre un arbre décisionnel normatif et les arbres décisionnels individuels a démontré une mésestimation de l’importance des critères diagnostics pertinents. Il y a présence d’hétérogénéité quant aux critères utilisés par les médecins pour poser le diagnostic. Ces résultats permettent de cibler davantage la problématique de détection du sepsis pédiatrique et démontre la pertinence de développer un outil d’aide à la détection afin de soutenir les médecins dans leurs décisions. Les résultats de la présente étude fournissent des lignes directrices quant au développement d’un tel outil. Les résultats montrent également que la combinaison de la théorie de détection de signal, de l’identification de la règle décisionnelle et de l’extraction du processus décisionnel fournie une méthode adaptée afin de développer des modèles de prise de décision.
Resumo:
L’objectif de cette maîtrise est de développer une matrice alimentaire sans gluten par l’incorporation des protéines de canola (PC) dans une farine de riz blanc afin d’offrir aux personnes intolérantes au gluten un produit de bonne qualité d’un point de vue organoleptique (volume massique, structure alvéolaire et couleur) et de valeur nutritionnelle. La matrice sélectionnée est du pain à base de farine de riz blanc. Cinq formulations ont été testées dans la première partie de ce travail : témoin-1 (blé tendre), témoin-2 (100% riz), pain de riz +3% PC, pain de riz + 6% PC, pain de riz + 9% PC. Les produits obtenus ont été caractérisés à toutes les étapes de fabrication en utilisant différentes techniques : poussée volumique, variation thermique au cours des étuvages et de la cuisson, pH (acidité), perte d’eau, volume massique, analyse colorimétrique, dosage des protéines et analyse du profil de la texture. Dans la deuxième partie, deux variables indépendantes ont été additionnées; soit shortening (1, 2, 3%) et gomme de xanthane (0.5, 1, 1.5%), dans le but d’améliorer le volume massique de la meilleure formulation obtenue dans l’étape précédente. Ensuite, des essais de correction ont été attribués aux produits obtenus par l’introduction du bicarbonate de sodium (0.5, 1, 1.5%) et d’huile de canola à la place du shortening (1, 2, 3%). Les tests de panification ont donné différents volumes massiques et structures alvéolaires qui étaient jugés de qualité inférieure à celle du témoin-1 (2.518 mL/g), mais largement supérieure à celle du témoin-2 (1.417 mL/g). Le meilleur volume massique obtenu est de 1.777 mL/g, correspondant à celui du pain obtenu par la combinaison 6%PC+0.5%GH+B 1.5%+ H3%. Finalement, les résultats de ce projet ont montré l’impact positif de l’incorporation des protéines de canola dans un pain sans gluten à base de farine de riz blanc. Ce travail constitue une contribution à la possibilité de substituer le gluten par d’autres protéines ayant de bonnes propriétés techno-fonctionnelles, en particulier la capacité à donner du volume au produit final.
Resumo:
La consommation d’aliments biologiques croît depuis plusieurs années. Malgré cette croissance, la majorité des consommateurs d’aliments biologiques sont des consommateurs intermittents : leur consommation alimentaire n’est pas uniquement composée d’aliments biologiques, mais en comprend une part variable. Bien que majoritaires, ces consommateurs ont été l’objet de très peu de recherches, et demeurent mal connus. Cette étude exploratoire s’intéresse aux raisons qui conduisent ces consommateurs à opter ou non pour la version biologique d’un aliment. À partir de 24 entretiens individuels semi-dirigés, une restitution du processus de choix des répondants est proposée. Les résultats montrent que la décision d’opter pour le biologique est directement liée à un problème identifié avec l’offre non biologique, problème qui change selon le type d’aliment considéré et entre en contradiction avec les valeurs du répondant. L’option biologique est évaluée en fonction de la gravité du problème perçue par le répondant et de la capacité de l’option biologique à y répondre. Pour un même répondant, le caractère biologique d’un aliment est ainsi d’une importance variable pour différents aliments. Les stratégies mises en place en cas d’indisponibilité de l’option biologique sont également variables, allant de l’abstention complète de l’aliment à la consommation de la version non biologique, sous certaines conditions. Cette étude montre la grande diversité des raisons qui mènent les consommateurs à opter pour le biologique. Elle souligne également la nécessité de prendre en compte l’offre non biologique pour comprendre les consommateurs intermittents d’aliments biologiques.
Resumo:
Les étudiantes et étudiants inscrits dans le programme technique Informatique de gestion au collégial ont comme tâche de concevoir, coder et mettre au point divers programmes informatiques. La capacité pour réaliser cette dernière tâche, soit la mise au point de programmes ou débogage de programmes, est très peu développée chez les élèves. Ils ne prennent pas le temps de vérifier si leurs programmes fonctionnent adéquatement. Selon les superviseurs de stage en milieu de travail, ils ne testent pas assez leurs programmes. La procédure pour supprimer les erreurs de programmation qui leur est proposée ne semble pas suffisante en elle-même pour les soutenir dans leur apprentissage. Les ouvrages consultés sur le sujet de la métacognition nous incitent à penser qu’il manque à la procédure de débogage générale une dimension métacognitive qui pourrait leur être enseignée. L’objectif de cette recherche est de développer une stratégie pédagogique socioconstructiviste intervenant sur la métacognition pour soutenir le développement de la capacité à déboguer des programmes informatiques et à améliorer le sentiment d’auto-efficacité des élèves face à cette tâche. L’autoquestionnement semble être une stratégie métacognitive à développer chez les élèves, car il est primordial que les élèves se questionnent avant de débuter et pendant une tâche quelconque, en particulier celle du débogage de programmes. Trop souvent, les élèves escamotent cette étape d’auto-questionnement, ils ont trop hâte de pianoter sur l’ordinateur et voir si cela fonctionne. Notre type d’essai consiste en l’élaboration d’une intervention pédagogique, sa validation et sa mise à l’essai auprès des élèves. Le matériel nécessaire pour l’intervention a été tiré et adapté du livre sur la métacognition de Lafortune et St-Pierre. Plusieurs activités d’apprentissage ont été construites pour ce projet : un exercice de prise de conscience sur des stratégies d’apprentissage efficaces, une activité d’autoévaluation pour vérifier les connaissances des étudiantes et étudiants sur le débogage de programmes et une troisième activité concernant la planification du processus de résolution de problèmes qui a été reprise tout le long de la session. Ces activités ont été mises à l’essai auprès d’un groupe d’étudiants de 2e année en Technique Informatique à la session Hiver 2004. Les résultats de cette mise à l’essai sont intéressants. Dans un premier temps, l’objectif concernant le développement des habiletés métacognitives de planification a été atteint. De même, le développement de la démarche de débogage a été nettement amélioré, car au début, la démarche était très générale et peu efficace tandis qu’à la fin, la démarche était beaucoup plus structurée et détaillée. L’atteinte de l’objectif, concernant le sentiment d’autoefficacité des élèves, est difficile à évaluer car l’objectif semblait être déjà présent au début selon leurs réponses au questionnaire initial. Cela est très surprenant, car les élèves n’ont pas nécessairement une bonne démarche de débogage mais ils pensent que leur démarche est efficace. Les retombées de ce projet ont permis d’approfondir mes connaissances personnelles au sujet de la métacognition, de l’approche socioconstructiviste et du sentiment d’autoefficacité. En ce qui concerne les élèves, ils ont pris conscience de l’importance du débogage de programmes dans leurs fonctions de travail et ils possèdent une procédure efficace de débogage générale qu’ils peuvent utiliser en tout temps. La stratégie pédagogique, les activités prévues et les outils utilisés nécessitent certains ajustements. Entre autres, utiliser davantage la technique du modelage par le professeur en classe et modifier la procédure générale de débogage en la schématisant pour développer davantage l’autoquestionnement chez les élèves.
Resumo:
Dans un contexte de pression toujours plus grande sur les ressources naturelles, une gestion rationnelle des ressources hydriques s'impose. La principale difficulté de leur gestion provient du caractère aléatoire des apports en eau dans le système. Le sujet de cette recherche consiste à développer des méthodes d'optimisation stochastique capable de bien représenter les processus aléatoires. Le cas de Kemano, située en Colombie-Britannique (Canada), illustre les travaux de recherche. L'importante accumulation de neige sur les bassins versants engendre une hydrologie complexe, rendant la gestion du système délicate. La programmation dynamique stochastique est la méthode la plus utilisée pour déterminer la politique de gestion des réservoirs. Mais, son étude fait ressortir que cette méthode ne peut gérer que des modèles simplifiés des processus stochastiques, ne rendant pas compte des complexes corrélations spatio-temporelles des apports hydriques. Ainsi, la politique obtenue peut être de mauvaise qualité. Cette méthode est comparée avec la recherche directe de politique qui n'utilise pas de modèles pour représenter les processus stochastiques, mais évalue la politique sur des scénarios d'apports. Ainsi la recherche directe de politique se révèle globalement plus performante en prenant bien en considération la complexité des apports, mais est limitée par la forme prédéterminée de la politique. De plus, l'optimisation des paramètres en utilisant un algorithme évolutionnaire s'avère lente. La conception d'un algorithme de descente par gradient, combinée à une architecture "acteur-critique" appropriée, permet de réduire notablement le temps d'optimisation. Combinée à une fonction plus complexe employée pour la paramétrisation de la politique de gestion, la méthode permet d'obtenir une politique de qualité significativement supérieure à celle obtenue avec la programmation dynamique stochastique. Les travaux effectués dans le cadre de cette thèse ouvrent la voie à une application opérationnelle de la méthode de recherche directe de politique. L'évaluation en simulation devrait être appréciée des opérateurs en permettant une bonne représentation du système et des apports.
Resumo:
L'objectif de cet essai est de proposer une manière de favoriser la formation d'intervenantes et intervenants efficaces en relation d'aide. Plus précisément, il vise à expliquer de manière concrète un moyen de favoriser la formation d'intervenantes et d'intervenants efficaces en orientation, par le biais des supervisions suivies dans le cadre du baccalauréat en orientation de l'Université de Sherbrooke.
Resumo:
John Frazer's architectural work is inspired by living and generative processes. Both evolutionary and revolutionary, it explores informatin ecologies and the dynamics of the spaces between objects. Fuelled by an interest in the cybernetic work of Gordon Pask and Norbert Wiener, and the possibilities of the computer and the "new science" it has facilitated, Frazer and his team of collaborators have conducted a series of experiments that utilize genetic algorithms, cellular automata, emergent behaviour, complexity and feedback loops to create a truly dynamic architecture. Frazer studied at the Architectural Association (AA) in London from 1963 to 1969, and later became unit master of Diploma Unit 11 there. He was subsequently Director of Computer-Aided Design at the University of Ulter - a post he held while writing An Evolutionary Architecture in 1995 - and a lecturer at the University of Cambridge. In 1983 he co-founded Autographics Software Ltd, which pioneered microprocessor graphics. Frazer was awarded a person chair at the University of Ulster in 1984. In Frazer's hands, architecture becomes machine-readable, formally open-ended and responsive. His work as computer consultant to Cedric Price's Generator Project of 1976 (see P84)led to the development of a series of tools and processes; these have resulted in projects such as the Calbuild Kit (1985) and the Universal Constructor (1990). These subsequent computer-orientated architectural machines are makers of architectural form beyond the full control of the architect-programmer. Frazer makes much reference to the multi-celled relationships found in nature, and their ongoing morphosis in response to continually changing contextual criteria. He defines the elements that describe his evolutionary architectural model thus: "A genetic code script, rules for the development of the code, mapping of the code to a virtual model, the nature of the environment for the development of the model and, most importantly, the criteria for selection. In setting out these parameters for designing evolutionary architectures, Frazer goes beyond the usual notions of architectural beauty and aesthetics. Nevertheless his work is not without an aesthetic: some pieces are a frenzy of mad wire, while others have a modularity that is reminiscent of biological form. Algorithms form the basis of Frazer's designs. These algorithms determine a variety of formal results dependent on the nature of the information they are given. His work, therefore, is always dynamic, always evolving and always different. Designing with algorithms is also critical to other architects featured in this book, such as Marcos Novak (see p150). Frazer has made an unparalleled contribution to defining architectural possibilities for the twenty-first century, and remains an inspiration to architects seeking to create responsive environments. Architects were initially slow to pick up on the opportunities that the computer provides. These opportunities are both representational and spatial: computers can help architects draw buildings and, more importantly, they can help architects create varied spaces, both virtual and actual. Frazer's work was groundbreaking in this respect, and well before its time.
Resumo:
De récentes recherches ont mis l’accent sur l’importance pour les nouvelles entreprises internationales de l’existence de ressources et de compétences spécifiques. La présente recherche, qui s’inscrit dans ce courant, montre en particulier l’importance du capital humain acquis par les entrepreneurs sur base de leur expérience internationale passée. Mais nous montrons en même temps que ces organisations sont soutenues par une intention délibérée d’internationalisation dès l’origine. Notre recherche empirique est basée sur l’analyse d’un échantillon de 466 nouvelles entreprises de hautes technologies anglaises et allemandes. Nous montrons que ce capital humain est un actif qui facilite la pénétration rapide des marchés étrangers, et plus encore quand l’entreprise nouvelle est accompagnée d’une intention stratégique délibérée d’internationalisation. Des conclusions similaires peuvent être étendues au niveau des ressources que l’entrepreneur consacre à la start-up : plus ces ressources sont importantes, plus le processus d’internationalisation tend à se faire à grande échelle ; et là aussi, l’influence de ces ressources est augmenté par l’intention stratégique d’internationalisation. Dans le cadre des études empiriques sur les born-globals (entreprises qui démarrent sur un marché globalisé), cette recherche fournit une des premières études empiriques reliant l’influence des conditions initiales de création aux probabilités de croissance internationale rapide.
Resumo:
The problem of bubble contraction in a Hele-Shaw cell is studied for the case in which the surrounding fluid is of power-law type. A small perturbation of the radially symmetric problem is first considered, focussing on the behaviour just before the bubble vanishes, it being found that for shear-thinning fluids the radially symmetric solution is stable, while for shear-thickening fluids the aspect ratio of the bubble boundary increases. The borderline (Newtonian) case considered previously is neutrally stable, the bubble boundary becoming elliptic in shape with the eccentricity of the ellipse depending on the initial data. Further light is shed on the bubble contraction problem by considering a long thin Hele-Shaw cell: for early times the leading-order behaviour is one-dimensional in this limit; however, as the bubble contracts its evolution is ultimately determined by the solution of a Wiener-Hopf problem, the transition between the long-thin limit and the extinction limit in which the bubble vanishes being described by what is in effect a similarity solution of the second kind. This same solution describes the generic (slit-like) extinction behaviour for shear-thickening fluids, the interface profiles that generalise the ellipses that characterise the Newtonian case being constructed by the Wiener-Hopf calculation.