965 resultados para Processus ARMA
Resumo:
Ce mémoire analyse le processus de romanisation et de colonisation de Xanten-Vetera, une région frontalière de l’Empire romain située en basse Rhénanie dans la province romaine de Germania inferior. À l’intérieur d’un cadre temporel inclus entre les conquêtes de Jules César et le milieu du second siècle apr. J.-C., l’étude cherche à comprendre et à restituer la présence militaire ainsi que le développement des peuplades civiles sur place, du fait des transferts de population et de l’immigration gallo-romaine. Le processus de romanisation est analysé en tenant compte des réalités ethnographiques, sociales et culturelles et selon les théories les plus actuelles de la recherche moderne sur ce sujet. Comme il s’agit d’une agglomération située sur une voie fluviale en périphérie de l’Empire, le concept de « frontière » y est évalué afin d’estimer si Xanten-Vetera constituait une zone de convergence ou de divergence par rapport à l’espace rhénan. Dans un deuxième temps, cette recherche analyse le contexte militaire et social durant lequel l’empereur Trajan prit la décision d’octroyer le statut de colonie à ce territoire qui devint la Colonia Ulpia Traiana. Cette démarche qui se veut régionale souligne la nature particulière de l’histoire de Xanten-Vetera sous le Haut Empire ; les migrations et les tragédies à l’intérieur de cet espace géographique ont façonné un endroit au destin unique en Germanie et dans l’Empire romain. Enfin, ce travail fournit un exemple pertinent de l’évolution des motivations qui ont guidé les politiques coloniales sous les Julio-Claudiens, les Flaviens et les Antonins et suggère l’essor des groupes de pression non militaires dans ce contexte.
Resumo:
Le sepsis, un syndrome d’infection générale grave, est une importante cause de décès dans le monde et a un impact considérable sur le taux de mortalité dans le département des soins intensifs des hôpitaux. Plusieurs médecins soutiennent que le diagnostic de sepsis est fréquemment omis, menant ainsi à de graves conséquences pour l’état de santé du patient. Considérant cette problématique, la présente étude a pour buts de déterminer les caractéristiques du processus décisionnel des médecins en situation de triage et de prise en charge du sepsis pédiatrique, d’évaluer la performance des médecins en contexte de détection du sepsis pédiatrique et enfin, de valider une méthode permettant de développer un modèle cognitif de prise de décision relié à cette condition médicale. Une tâche décisionnelle à l’aide d’un tableau d’information est administrée aux participants. Les résultats sont analysés selon une combinaison de méthodes : la théorie de détection de signal, l’identification de la règle décisionnelle et l’extraction du processus décisionnel. Le personnel médical a une capacité de discrimination moyenne. Leurs réponses tendent vers un biais libéral. La comparaison entre un arbre décisionnel normatif et les arbres décisionnels individuels a démontré une mésestimation de l’importance des critères diagnostics pertinents. Il y a présence d’hétérogénéité quant aux critères utilisés par les médecins pour poser le diagnostic. Ces résultats permettent de cibler davantage la problématique de détection du sepsis pédiatrique et démontre la pertinence de développer un outil d’aide à la détection afin de soutenir les médecins dans leurs décisions. Les résultats de la présente étude fournissent des lignes directrices quant au développement d’un tel outil. Les résultats montrent également que la combinaison de la théorie de détection de signal, de l’identification de la règle décisionnelle et de l’extraction du processus décisionnel fournie une méthode adaptée afin de développer des modèles de prise de décision.
Resumo:
L’objectif de cette maîtrise est de développer une matrice alimentaire sans gluten par l’incorporation des protéines de canola (PC) dans une farine de riz blanc afin d’offrir aux personnes intolérantes au gluten un produit de bonne qualité d’un point de vue organoleptique (volume massique, structure alvéolaire et couleur) et de valeur nutritionnelle. La matrice sélectionnée est du pain à base de farine de riz blanc. Cinq formulations ont été testées dans la première partie de ce travail : témoin-1 (blé tendre), témoin-2 (100% riz), pain de riz +3% PC, pain de riz + 6% PC, pain de riz + 9% PC. Les produits obtenus ont été caractérisés à toutes les étapes de fabrication en utilisant différentes techniques : poussée volumique, variation thermique au cours des étuvages et de la cuisson, pH (acidité), perte d’eau, volume massique, analyse colorimétrique, dosage des protéines et analyse du profil de la texture. Dans la deuxième partie, deux variables indépendantes ont été additionnées; soit shortening (1, 2, 3%) et gomme de xanthane (0.5, 1, 1.5%), dans le but d’améliorer le volume massique de la meilleure formulation obtenue dans l’étape précédente. Ensuite, des essais de correction ont été attribués aux produits obtenus par l’introduction du bicarbonate de sodium (0.5, 1, 1.5%) et d’huile de canola à la place du shortening (1, 2, 3%). Les tests de panification ont donné différents volumes massiques et structures alvéolaires qui étaient jugés de qualité inférieure à celle du témoin-1 (2.518 mL/g), mais largement supérieure à celle du témoin-2 (1.417 mL/g). Le meilleur volume massique obtenu est de 1.777 mL/g, correspondant à celui du pain obtenu par la combinaison 6%PC+0.5%GH+B 1.5%+ H3%. Finalement, les résultats de ce projet ont montré l’impact positif de l’incorporation des protéines de canola dans un pain sans gluten à base de farine de riz blanc. Ce travail constitue une contribution à la possibilité de substituer le gluten par d’autres protéines ayant de bonnes propriétés techno-fonctionnelles, en particulier la capacité à donner du volume au produit final.
Resumo:
La consommation d’aliments biologiques croît depuis plusieurs années. Malgré cette croissance, la majorité des consommateurs d’aliments biologiques sont des consommateurs intermittents : leur consommation alimentaire n’est pas uniquement composée d’aliments biologiques, mais en comprend une part variable. Bien que majoritaires, ces consommateurs ont été l’objet de très peu de recherches, et demeurent mal connus. Cette étude exploratoire s’intéresse aux raisons qui conduisent ces consommateurs à opter ou non pour la version biologique d’un aliment. À partir de 24 entretiens individuels semi-dirigés, une restitution du processus de choix des répondants est proposée. Les résultats montrent que la décision d’opter pour le biologique est directement liée à un problème identifié avec l’offre non biologique, problème qui change selon le type d’aliment considéré et entre en contradiction avec les valeurs du répondant. L’option biologique est évaluée en fonction de la gravité du problème perçue par le répondant et de la capacité de l’option biologique à y répondre. Pour un même répondant, le caractère biologique d’un aliment est ainsi d’une importance variable pour différents aliments. Les stratégies mises en place en cas d’indisponibilité de l’option biologique sont également variables, allant de l’abstention complète de l’aliment à la consommation de la version non biologique, sous certaines conditions. Cette étude montre la grande diversité des raisons qui mènent les consommateurs à opter pour le biologique. Elle souligne également la nécessité de prendre en compte l’offre non biologique pour comprendre les consommateurs intermittents d’aliments biologiques.
Resumo:
Les étudiantes et étudiants inscrits dans le programme technique Informatique de gestion au collégial ont comme tâche de concevoir, coder et mettre au point divers programmes informatiques. La capacité pour réaliser cette dernière tâche, soit la mise au point de programmes ou débogage de programmes, est très peu développée chez les élèves. Ils ne prennent pas le temps de vérifier si leurs programmes fonctionnent adéquatement. Selon les superviseurs de stage en milieu de travail, ils ne testent pas assez leurs programmes. La procédure pour supprimer les erreurs de programmation qui leur est proposée ne semble pas suffisante en elle-même pour les soutenir dans leur apprentissage. Les ouvrages consultés sur le sujet de la métacognition nous incitent à penser qu’il manque à la procédure de débogage générale une dimension métacognitive qui pourrait leur être enseignée. L’objectif de cette recherche est de développer une stratégie pédagogique socioconstructiviste intervenant sur la métacognition pour soutenir le développement de la capacité à déboguer des programmes informatiques et à améliorer le sentiment d’auto-efficacité des élèves face à cette tâche. L’autoquestionnement semble être une stratégie métacognitive à développer chez les élèves, car il est primordial que les élèves se questionnent avant de débuter et pendant une tâche quelconque, en particulier celle du débogage de programmes. Trop souvent, les élèves escamotent cette étape d’auto-questionnement, ils ont trop hâte de pianoter sur l’ordinateur et voir si cela fonctionne. Notre type d’essai consiste en l’élaboration d’une intervention pédagogique, sa validation et sa mise à l’essai auprès des élèves. Le matériel nécessaire pour l’intervention a été tiré et adapté du livre sur la métacognition de Lafortune et St-Pierre. Plusieurs activités d’apprentissage ont été construites pour ce projet : un exercice de prise de conscience sur des stratégies d’apprentissage efficaces, une activité d’autoévaluation pour vérifier les connaissances des étudiantes et étudiants sur le débogage de programmes et une troisième activité concernant la planification du processus de résolution de problèmes qui a été reprise tout le long de la session. Ces activités ont été mises à l’essai auprès d’un groupe d’étudiants de 2e année en Technique Informatique à la session Hiver 2004. Les résultats de cette mise à l’essai sont intéressants. Dans un premier temps, l’objectif concernant le développement des habiletés métacognitives de planification a été atteint. De même, le développement de la démarche de débogage a été nettement amélioré, car au début, la démarche était très générale et peu efficace tandis qu’à la fin, la démarche était beaucoup plus structurée et détaillée. L’atteinte de l’objectif, concernant le sentiment d’autoefficacité des élèves, est difficile à évaluer car l’objectif semblait être déjà présent au début selon leurs réponses au questionnaire initial. Cela est très surprenant, car les élèves n’ont pas nécessairement une bonne démarche de débogage mais ils pensent que leur démarche est efficace. Les retombées de ce projet ont permis d’approfondir mes connaissances personnelles au sujet de la métacognition, de l’approche socioconstructiviste et du sentiment d’autoefficacité. En ce qui concerne les élèves, ils ont pris conscience de l’importance du débogage de programmes dans leurs fonctions de travail et ils possèdent une procédure efficace de débogage générale qu’ils peuvent utiliser en tout temps. La stratégie pédagogique, les activités prévues et les outils utilisés nécessitent certains ajustements. Entre autres, utiliser davantage la technique du modelage par le professeur en classe et modifier la procédure générale de débogage en la schématisant pour développer davantage l’autoquestionnement chez les élèves.
Resumo:
Dans un contexte de pression toujours plus grande sur les ressources naturelles, une gestion rationnelle des ressources hydriques s'impose. La principale difficulté de leur gestion provient du caractère aléatoire des apports en eau dans le système. Le sujet de cette recherche consiste à développer des méthodes d'optimisation stochastique capable de bien représenter les processus aléatoires. Le cas de Kemano, située en Colombie-Britannique (Canada), illustre les travaux de recherche. L'importante accumulation de neige sur les bassins versants engendre une hydrologie complexe, rendant la gestion du système délicate. La programmation dynamique stochastique est la méthode la plus utilisée pour déterminer la politique de gestion des réservoirs. Mais, son étude fait ressortir que cette méthode ne peut gérer que des modèles simplifiés des processus stochastiques, ne rendant pas compte des complexes corrélations spatio-temporelles des apports hydriques. Ainsi, la politique obtenue peut être de mauvaise qualité. Cette méthode est comparée avec la recherche directe de politique qui n'utilise pas de modèles pour représenter les processus stochastiques, mais évalue la politique sur des scénarios d'apports. Ainsi la recherche directe de politique se révèle globalement plus performante en prenant bien en considération la complexité des apports, mais est limitée par la forme prédéterminée de la politique. De plus, l'optimisation des paramètres en utilisant un algorithme évolutionnaire s'avère lente. La conception d'un algorithme de descente par gradient, combinée à une architecture "acteur-critique" appropriée, permet de réduire notablement le temps d'optimisation. Combinée à une fonction plus complexe employée pour la paramétrisation de la politique de gestion, la méthode permet d'obtenir une politique de qualité significativement supérieure à celle obtenue avec la programmation dynamique stochastique. Les travaux effectués dans le cadre de cette thèse ouvrent la voie à une application opérationnelle de la méthode de recherche directe de politique. L'évaluation en simulation devrait être appréciée des opérateurs en permettant une bonne représentation du système et des apports.
Resumo:
L'objectif de cet essai est de proposer une manière de favoriser la formation d'intervenantes et intervenants efficaces en relation d'aide. Plus précisément, il vise à expliquer de manière concrète un moyen de favoriser la formation d'intervenantes et d'intervenants efficaces en orientation, par le biais des supervisions suivies dans le cadre du baccalauréat en orientation de l'Université de Sherbrooke.
Resumo:
Com base em algumas das definições de testimonio como gênero literário, este artigo compara as obras de Gloria Anzaldúa e Rigoberta Menchú, duas autoras que compartilham uma herança indígena e que parecem funcionar como mediadoras entre os mundos daqueles que elas vêem como opressores e oprimidos. As discussões apresentadas neste artigo baseiam-se diretamente no “Testimonio de Menchú”, um relato oral das atrocidades por ela testemunhadas na Guatemala na década de 1980, transformado em um livro escrito por Elisabeth Burgos, Debray, e alguns trechos das obras de Anzaldúa, escritora e teórica, que teve de aprender a viver cercada pelo preconceito contra os descendentes de mexicanos que vivem na fronteira do Texas com o México. Os principais objetivos deste artigo são: a) identificar os leitores implícitos de seus textos; e b) analisar o papel dos elementos literários em suas narrativas.
Resumo:
De récentes recherches ont mis l’accent sur l’importance pour les nouvelles entreprises internationales de l’existence de ressources et de compétences spécifiques. La présente recherche, qui s’inscrit dans ce courant, montre en particulier l’importance du capital humain acquis par les entrepreneurs sur base de leur expérience internationale passée. Mais nous montrons en même temps que ces organisations sont soutenues par une intention délibérée d’internationalisation dès l’origine. Notre recherche empirique est basée sur l’analyse d’un échantillon de 466 nouvelles entreprises de hautes technologies anglaises et allemandes. Nous montrons que ce capital humain est un actif qui facilite la pénétration rapide des marchés étrangers, et plus encore quand l’entreprise nouvelle est accompagnée d’une intention stratégique délibérée d’internationalisation. Des conclusions similaires peuvent être étendues au niveau des ressources que l’entrepreneur consacre à la start-up : plus ces ressources sont importantes, plus le processus d’internationalisation tend à se faire à grande échelle ; et là aussi, l’influence de ces ressources est augmenté par l’intention stratégique d’internationalisation. Dans le cadre des études empiriques sur les born-globals (entreprises qui démarrent sur un marché globalisé), cette recherche fournit une des premières études empiriques reliant l’influence des conditions initiales de création aux probabilités de croissance internationale rapide.
Resumo:
Cette présentation met en avant la Théorie des Littératies Multiples (TLM) et l’importance de lire, lire le monde et se lire, dans le but de se transformer en contexte plurilingue. La première partie de cette communication sera consacrée à la présentation des principes fondamentaux de la TLM. Il est vrai que la littératie valorisée par l’école est souvent celle qui est la plus prisée dans la recherche et l’enseignement. La TLM enlève la littératie scolaire de sa place privilégiée et l’insère dans un agencement de littératies au foyer, à l’école et dans la communauté. Les littératies, en tant que construit renvoient aux mots, aux gestes, aux attitudes, ou plus exactement, aux façons de parler, de lire, d’écrire et de valoriser les réalités de la vie. Elles sont une façon de devenir avec le monde. Les littératies constituent des textes au sens large (comme par exemple, la musique, l’art, la physique et les athématiques) qui peuvent être visuels,oraux, écrits, tactiles,olfactifs ou numériques. Elles se fusionnent aux contextes sociopolitiques, culturels, économiques, genrés et racialisés, qui de par leur caractère mobile et fluide transforment les littératies génératrices de locuteurs, de scripteurs, d’artistes, d’ava tars et de communautés. Les littératies prennent leur sens en contexte, dans le temps et l’espace où on se trouve De ce fait, leur actualisation n’est pas prédéterminée et est imprévisible. La TLM s’intéresse aux rôles joués par les littératies. Lire, lire le monde et se lire a pour fonction importante entre autres de transformer une vie, une communauté et une société. La deuxième partie de cette communication sera consacrée à un projet de recherche ayant pour objectif d’explorer la façon dont des enfants acquièrent simultanément deux ou plusieurs systèmes d’écriture. Des enfants âgés de 5 à 8 ans ont participé à des activités filmées en salle de classe, au foyer et dans leur quartier. Puis des entretiens ont été menés avec les enfants, leurs parents et leurs enseignants. Ce projet nous permet de mieux saisir ce que signifient en contexte plurilingue les littératies en tant que processus. Le projet s’intéresse à ce qu’implique lire, lire le monde et se lire à l’école, au foyer et dans la communauté. Dans une société pluraliste, nous sommes plus que jamais ensibilisés aux contextes particuliers dans lesquels lire, lire le monde et se lire s’actualisent, qu’il s’agisse d’un nouvel arrivant ou d’une personne vivant en milieu minoritaire.
Resumo:
L'intérêt suscité par la ré-ingénierie des processus et les technologies de l'information révèle l'émergence du paradigme du management par les processus. Bien que beaucoup d'études aient été publiées sur des outils et techniques alternatives de modélisation de processus, peu d'attention a été portée à l'évaluation post-hoc des activités de modélisation de processus ou à l'établissement de directives sur la façon de conduire efficacement une modélisation de processus. La présente étude a pour objectif de combler ce manque. Nous présentons les résultats d'une étude de cas détaillée, conduite dans une organisation leader australienne dans le but de construire un modèle de réussite de la modélisation des processus.
Resumo:
This paper sets out to contribute to the literature on the design and the implementation of management control systems. To this end, we question what is discussed when a management control system is to be chosen and on what decision-making eventually rests. This study rests upon an ethnomethodology of the Salvation Army’s French branch. Operating in the dual capacity of a researcher and a counsellor to management, between 2000 and 2007, we have unrestricted access to internal data revealing the backstage of management control: discussions and interactions surrounding the choosing of control devices. We contribute to understanding the arising of a need for control, the steps and process followed to decide upon a management control system, and controls in nonprofits. [Cet article vise à contribuer à la littérature sur la mise en place des systèmes de contrôle de gestion. À cette fin, nous questionnons ce qui est discuté lors du choix d’un système de contrôle et sur quoi repose in fine la décision. Cet article est fondé sur une approche ethnométhodologique de l’Armée du Salut en France permise par notre double qualité de chercheurs mais également de conseiller auprès de la direction de l’organisation entre 2000 et 2007. Un accès illimité à des données internes nous permet ainsi de mettre en lumière les aspects méconnus et invisibles du contrôle de gestion : les discussions et interactions entourant le choix d’outils. Nous contribuons à la compréhension de l’émergence du besoin de contrôle, des étapes et du processus de choix d’outils et enfin du contrôle de gestion dans une organisation à but non lucratif.]
Resumo:
We present a rigorous validation of the analyticalAmadei solution for the stress concentration around arbitrarily orientated borehole in general anisotropic elastic media. First, we revisit the theoretical framework of the Amadei solution and present analytical insights that show that the solution does indeed contain all special cases of symmetry, contrary to previous understanding, provided that the reduced strain coefficients β11 and β55 are not equal. It is shown from theoretical considerations and published experimental data that the β11 and β55 are not equal for realistic rocks. Second, we develop a 3D finite-element elastic model within a hybrid analyticalnumerical workflow that circumvents the need to rebuild and remesh the model for every borehole and material orientation. Third, we show that the borehole stresses computed from the numerical model and the analytical solution match almost perfectly for different borehole orientations (vertical, deviated and horizontal) and for several cases involving isotropic and transverse isotropic symmetries. It is concluded that the analytical Amadei solution is valid with no restrictions on the borehole orientation or elastic anisotropy symmetry.
Resumo:
This study compares Value-at-Risk (VaR) measures for Australian banks over a period that includes the Global Financial Crisis (GFC) to determine whether the methodology and parameter selection are important for capital adequacy holdings that will ultimately support a bank in a crisis period. VaR methodology promoted under Basel II was largely criticised during the GFC for its failure to capture downside risk. However, results from this study indicate that 1-year parametric and historical models produce better measures of VaR than models with longer time frames. VaR estimates produced using Monte Carlo simulations show a high percentage of violations but with lower average magnitude of a violation when they occur. VaR estimates produced by the ARMA GARCH model also show a relatively high percentage of violations, however, the average magnitude of a violation is quite low. Our findings support the design of the revised Basel II VaR methodology which has also been adopted under Basel III.