298 resultados para Parigi,Grands,Ensembles.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit option droit des affaires". Ce mémoire a été classé parmi les 15% des mémoires de la discipline.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, l’urbanisme tend à considérer de plus en plus la question patrimoniale. Au Québec, c’est suite à l’adoption, en 1980, de la Loi sur l’aménagement et l’urbanisme que fut formellement introduite la donne patrimoniale dans la pratique urbanistique. Bien que cette pratique tente aujourd’hui de poser la conservation du patrimoine bâti comme l’une de ses préoccupations, elle ne parvient pas à l’assumer complètement. En nous basant sur la définition du patrimoine urbain telle que proposée par Gustavo Giovannoni, nous voulons, par cette étude, amorcer une réflexion sur les enjeux d’une approche urbanistique du patrimoine urbain. Nous proposons dans un premier temps un survol de l’évolution de la notion de patrimoine urbain. Cette évolution est mise en relation avec la constitution d’un regard sur le patrimoine bâti québécois. Nous analysons, par la suite, trois moments clés dans la constitution d’un tel regard. La mise en contexte de la naissance de l’urbanisme québécois constitue, quant à elle, le troisième et avant-dernier volet de notre réflexion. À la lumière de cette analyse, nous considérons que le regard de l’urbaniste, posé sur le patrimoine bâti, témoigne encore aujourd’hui d’un désintérêt pour la forme. L’abandon du domaine du physico-spatial au profit d’une gestion rationnelle de la ville a engendré une méconnaissance des processus de constitution des ensembles bâtis et du rôle des formes spécialisées polarisantes. Une véritable approche urbanistique du patrimoine bâti ne saurait passer que par la reconnaissance des processus morphogénétiques des ensembles urbains anciens et de leur inscription dans la ville contemporaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis les années 90, les Projets Intégrés de Conservation et Développement ont été présentés comme des modèles fonctionnels de développement durable pour un site spécifique dans une perspective de réalisation. Le but est d’intégrer les objectifs biologiques de la conservation aux objectifs sociaux et économiques du développement. Ces projets, qui répondent à de multiples dénominations et stratégies, sont implantés dans des contextes naturellement hétérogènes et dynamiques, où l’aménagement du territoire ne doit pas être un outil de planification étatique, désigné et imposé dans une logique conservationniste. Les aires protégées représentent une certaine vision du rapport entre l’être humain et la nature, apparue dans le contexte nord-américain avec la création des premiers grands parcs nationaux en 1870. Aujourd'hui, la forte volonté d'impliquer la population se heurte avec la difficulté de concilier la gestion de ces espaces avec les pratiques, les nécessités et les intérêts locaux. Le parc naturel Obô, qui occupe 30% du territoire de São Tomé et Principe, doit affronter la difficile intégration entre les représentations de la nature et les usages locaux avec les objectifs globaux des politiques conservationnistes, ainsi qu’avec les intérêts touristiques et économiques des investisseurs locaux et étrangers. Les représentations sociales de la nature, établissant une forme de connaissance pratique, déterminent la vision du monde et la relation qu'un certain groupe social peut avoir avec le territoire. Ainsi, chaque communauté possède ses propres mécanismes d'adaptation au milieu basés sur ce système représentationnel. Dans le cas des communautés sãotoméennes, la nature présente un caractère spirituel (associé à des croyances, des rites et des pratiques médicales traditionnelles) et utilitaire (la nature, à travers l'agriculture, la récolte ou la chasse, répond au besoin de subsistance). L’objectif de ce projet de thèse est donc de mieux comprendre la synergie existante entre savoir endogène et gestion de la biodiversité pour adapter l’aménagement du territoire à la réalité des populations qui y vivent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dépression et l’antidépresseur, phénomènes plus vastes, plus complexes que l’ordre biomédical ne l’entend, répondent à des logiques qui dépassent les seules considérations organiques, corporelles. Certaines recherches montrent d’ailleurs que ces deux entités sont autonomes l'une de l'autre, signifiant que les antidépresseurs sont prescrits pour des raisons indépendantes de la prévalence de problèmes de santé mentale. C’est dans cette optique que, dans ce mémoire, nous examinons les raisons pour lesquelles les individus ont recours aux antidépresseurs suite à une rupture conjugale. C’est à l’aide des récits de huit femmes ayant pris des antidépresseurs suite à une rupture conjugale qu’on a donc investigué les rouages du recours à ces médicaments. À la lumière des résultats, on observe effectivement que la prise d’antidépresseurs semble répondre à une logique qui soit extra–médicale. D’abord par le constat que seules trois d’entres ces huit femmes ont justifié leur prise d’antidépresseurs par la réception d’un diagnostic formel de dépression. Ensuite, par la découverte qu’elle se déploie essentiellement selon une double symbolique au centre duquel prime le lien social. En effet, on a recours aux antidépresseurs suite à une rupture conjugale parce qu’ils sont à la fois l’incarnation d’un lien de confiance avec un être semblable à soi, empathique, le médecin, et le symbole d’un retour à la vie dite ‘normale’ où les manières d’être et d’interagir sont conformes à celles du groupe auquel on s’identifie. On croit que l’importance accordée à la confiance au médecin et à la normalisation quant au recours à l’antidépresseur témoignent du resserrement des liens d’identification propre à l’individualisme contemporain lesquels, en opposition aux grands récits de jadis, sont désormais axés sur une intimité de valeurs et d’objectifs entre semblables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Suite à une recension des écrits sur les soins d’hygiène des personnes atteintes de démence de type Alzheimer (DTA), force est de constater la rareté, voire l’absence de recherches sur la question des soins d’hygiène (SH) dispensés à domicile par les conjointes. Pourtant, la conjointe à domicile est confrontée aux mêmes difficultés que les intervenants des établissements de santé et doit ainsi faire face aux comportements, parfois difficiles de la personne atteinte. Dans la pratique, les infirmières questionnent peu les difficultés rencontrées par les aidantes au moment des soins d’hygiène, ce qui permet difficilement de prendre conscience de leurs sentiments d’isolement et de détresse et de les réduire, le cas échéant. Pour pallier cette lacune, la présente recherche vise à comprendre l’expérience que vivent des conjointes d’hommes atteints de DTA lorsqu’elles leur dispensent des SH à domicile. Un second objectif vise à identifier les dimensions qui sont associées à cette expérience. Une approche de recherche qualitative est utilisée. Les participantes ont été recrutées par l’entremise des Sociétés Alzheimer de Laval et des Laurentides. La stratégie de collecte des données a impliqué la réalisation de deux entrevues individuelles, face à face, de même que l’administration d’un court questionnaire portant sur les aspects sociodémographiques. La démarche retenue pour l’analyse de l’ensemble de données est inspirée de l’approche proposée par Miles et Huberman (2003). Les résultats permettent d’abord de mettre en évidence des profils de conjointes qui, tout en étant variables, présentent certaines similarités. Eu égard aux SH, toutes ont à consacrer des efforts soutenus, quotidiens et intenses. Elles doivent faire montre de patience et compter sur des capacités personnelles les amenant à ressentir des sentiments positifs malgré les situations difficiles. Les résultats montrent par ailleurs que la dispensation des SH provoque aussi des sentiments négatifs associés au fardeau que ces soins impliquent. Les conjointes mettent toutefois en œuvre une variété de stratégies d’adaptation au stress telles la résolution de problème, la recherche de soutien social et le recadrage. Cinq ensembles de dimensions personnelles et contextuelles sont associés à l’expérience des aidantes : 1) En ce qui a trait aux caractéristiques personnelles des conjointes, l’avancement en âge et l’état de santé physique ou psychologique influencent négativement l’expérience lors des SH. Par contre, les ressources personnelles intrinsèques (acceptation de la réalité, capacité de trouver un sens à l’évènement, habileté à improviser et sens de l’humour) sont utilisées de manière naturelle ou acquise; 2) Les caractéristiques personnelles du conjoint (année du diagnostic, pertes d’autonomie et troubles de comportement) affectent négativement l’expérience vécue; 3) La relation conjugale présente un intérêt important puisqu’il apparaît qu’une relation conjugale pré-diagnostic positive semble favoriser des sentiments positifs chez la conjointe en ce qui a trait aux SH; 4) Les dimensions familiales ont un impact favorable, étant donné le soutien psychologique reçu de la famille; 5) Les dimensions macro-environnementales, incluant l’aide reçue du réseau informel plus large de même que du réseau formel, ainsi que les divers aménagements matériels de l’environnement physique du couple, ressortent enfin comme ayant un impact positif. Au terme de l’analyse des résultats, l’auteure est en mesure de proposer une synthèse de l’expérience des conjointes. La discussion aborde quatre enjeux qui se dégagent des résultats observés : impacts des difficultés rencontrées lors des SH dans la décision d’hébergement, réticence des aidantes à faire appel aux ressources du réseau formel pour obtenir de l’aide eu égard aux SH, importance des ressources personnelles des aidantes et potentiel de l’approche relationnelle humaine (human caring) pour faire face aux défis que pose la dispensation des SH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude vise à estimer l’apport en glutamine (Gln) alimentaire chez des athlètes soumis à un protocole de supplémentation en glutamine ainsi qu’à clarifier les informations diffusées au grand public en ce qui concerne les sources alimentaires de glutamine. Des études cliniques ont démontré que la supplémentation en glutamine pouvait réduire la morbidité et la mortalité chez des sujets en phase critique (grands brulés, chirurgie…). Le mécanisme en cause semble impliquer le système immunitaire. Cependant, les études chez les sportifs, dont le système immunitaire a de fortes chances d’être affaibli lors de périodes d’entraînement prolongées impliquant des efforts longs et intenses, n’ont pas été concluantes. Or, ces études négligent systématiquement l’apport alimentaire en glutamine, si bien qu’il est probable que les résultats contradictoires observés puissent en partie être expliqués par les choix alimentaires des sujets. Puisque la méthode conventionnelle de dosage des acides aminés dans les protéines alimentaires transforme la glutamine en glutamate, les tables de composition des aliments présentent la glutamine et le glutamate ensemble sous la dénomination « glutamate » ou « Glu », ce qui a comme conséquence de créer de l’ambiguïté. La dénomination « Glx » devrait être utilisée. Partant de la probabilité qu’un apport en Glx élevé soit un bon indicateur de l’apport en glutamine, nous avons créé un calculateur de Glx et avons évalué l’alimentation de 12 athlètes faisant partie d’une étude de supplémentation en glutamine. Nous avons alors constaté que l’apport en Glx était directement proportionnel à l’apport en protéines, avec 20,64 % ± 1,13 % de l’apport protéique sous forme de Glx. Grâce à quelques données sur la séquence primaire des acides aminés, nous avons pu constater que le rapport Gln/Glx pouvait être très variable d’un type de protéine à l’autre. Alors que le ratio molaire Gln/Glx est de ~95 % pour les α et β-gliadines, il n’est que de ~43 % pour la caséine, de ~36 % pour la β-lactoglobuline, de ~31 % pour l’ovalbumine et de ~28 % pour l’actine. Il est donc possible que certaines protéines puissent présenter des avantages par rapport à d’autres, à quantité égale de Glx.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le canal calcique de type L, Cav1.2, joue un rôle clé dans le couplage excitation-contraction des myocytes ventriculaires. Il a été montré que la sous-unité Cavα1 était sujette à l’épissage alternatif et que ce phénomène pouvait mener à une protéine tronquée en C-terminal au niveau de l’exon 45 (Liao, Yong et al. 2005). D’autres groupes ont étudié différentes délétions au niveau de l’extrémité C-terminale (De Jongh, Warner et al. 1991; Gao, Cuadra et al. 2001). Les courants mesurés dans la configuration cellule entière, était significativement plus grands que le canal « pleine longueur ». Nous avons décidé de tester certaines de ces délétions (ΔC2030, ΔC1935, ΔC1856, ΔC1733, ΔC1700) en présence ou en absence de la sous-unité auxiliaire Cavβ3, susceptible d’interagir avec l’extrémité C-terminale de la sous-unité Cavα1 par l’intermédiaire de son domaine SH3 (Lao, Kobrinsky et al. 2008). Les résultats obtenus dans les ovocytes de Xénope ont mis en évidence que les sous-unités Cavα1.2 tronquées montraient des courants globaux plus élevés que le canal « pleine longueur » en présence de la sous-unité auxiliaire Cavβ3 et que les sous-unités Cavα1.2 tronquées donnaient des courants en absence de la sous-unité Cavβ3 contrairement à la sous-unité Cavα1.2 « pleine longueur ». Afin de vérifier si l’augmentation des courants macroscopiques était le résultat d’une augmentation du nombre de sous-unités Cavα1.2 à la membrane, nous avons choisi de quantifier la fluorescence spécifiquement due à cette sous-unité en utilisant la méthode de cytométrie de flux (FACS : « Fluorescence Activated Cell Sorting »). L’épitope HA a été inséré dans une région extracellulaire de la sous-unité Cavα1 du canal calcique Cav1.2 et un anticorps anti-HA couplé au FITC (« Fluorescein IsoThioCyanate ») a été utilisé pour observer la fluorescence. Nos résultats confirment que la sous-unité Cavα1-HA du canal calcique Cav1.2, s’exprime à la membrane plasmique en présence de la sous-unité auxiliaire Cavβ3, et qu’en absence de celle-ci, ne s’exprime que peu ou pas à la membrane. Les mêmes résultats ont été obtenus pour les trois délétions testées dans les mêmes conditions soit Cavα1.2-HA ΔC1935, Cavα1.2-HA ΔC1856 et Cavα1.2-HA ΔC1733. Ensemble, ces résultats suggèrent que l’augmentation des courants macroscopiques observés après une délétion partielle du C-terminal n’est pas causée par une augmentation du nombre de protéines Cavα1.2 à la membrane.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le concert européen est souvent perçu, du moins pour les années 1871 à 1890, comme l’œuvre indéniable du Chancelier allemand Otto von Bismarck et des grands hommes politiques de son temps. La politique dite bismarckienne a effectivement connoté la plupart des interactions entre pays rivaux de l’époque, particulièrement entre la France et l’Allemagne. Son incidence sur la politique française est telle qu’elle en affecte les politiques intérieure et extérieure. Les républicains opportunistes adopteront vis-à-vis de la politique bismarckienne une attitude pragmatique leur permettant, de 1878 à 1885, de recouvrer leur rôle d’antan, ainsi que d’encadrer un fort sentiment nationaliste. S’il est souvent reproché aux opportunistes d’avoir préféré le momentané au planifié, il nous semble que la politique des gouvernements Ferry, Gambetta, Waddington et Freycinet réussit au contraire à tirer habilement son épingle du jeu bismarckien. Familiers du caractère éphémère de ce jeu, les opportunistes ont su y trouver des avantages, assurer à la France le recouvrement d’une position diplomatique de choix et l’acquisition de nouveaux territoires coloniaux, tout en préservant une certaine indépendance face au Chancelier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comprendre le mode d’existence de l’organisation est certainement l’un des plus grands défis que se sont donnés les chercheurs qui s’intéressent à ce domaine d’étude. La littérature nous présente ainsi plusieurs images, métaphores et perspectives qui, combinées, dressent un portrait hybride de ce type de collectif. Je propose, dans cette thèse, de reconnaître et exploiter ce caractère hybride de l’organisation en partant d’une réflexion centrée sur l'espace. En m’inspirant particulièrement des travaux de la géographe Doreen Massey (1999, 2005), le concept d'espace auquel je souscris est celui d’un espace ouvert et dynamique (qui incorpore le temps), basé sur une relationalité matérielle et hétérogène, supposant des acteurs humains et non humains en interaction. L'espace peut donc être compris comme la coexistence d’ontologies hétérogènes, ce que Massey (2005) nomme une coexistence de trajectoires comme stories-so-far. Il s’agit ici d’une vision performative de l’espace organisationnel qui est constitué dans la relation de trajectoires distinctes qui coexistent, se rencontrent, s’affectent, entrent en conflit ou coopèrent (Massey, 1999). Je postule que pour assurer une certaine continuité et cohérence dans la coexistence de trajectoires hétérogènes, un travail d’alignement et d’ordonnancement est mis à l’oeuvre, et ce, par le suivi d’une trajectoire principale — ce que je nomme une trajectoire scriptée. Suivre cette trajectoire permet ainsi à l’organisation de s’étendre, de se rendre présente dans le temps et dans l’espace, sans pour autant perdre son identité : to be here and there at the same time, now and then at the same place. À partir de cette définition de l’espace, je propose d’« espacer l’organisation », et plus particulièrement d’« espacer » Explora, un programme d’éducation non formelle du gouvernement du Chili visant la diffusion et la valorisation de la science et de la technologie. Cette proposition est double : elle renvoie aux pratiques d’espacements — des pratiques hybrides, collectives et situées — des agents organisationnels (dans ce cas, aux pratiques des agents d’Explora impliqués dans l’organisation d’un projet, celui de la Semaine de la science 2006),mais aussi à une pratique de recherche. « Espacer l’organisation » veut donc dire déployer ces espaces pleins, déplier l’organisation, accroître la série des simultanéités-successions pour ainsi créer plus d’espace-temps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ville de Liège, à la fin du Moyen Âge, fut le théâtre de l’affirmation de ses bourgeois par l’entremise des corporations de métier et des institutions communales. Le XIVe siècle fut en effet marqué par des gains communaux importants au détriment, d’une part, du patriciat urbain, d’autre part, du prince-évêque de Liège. À partir de 1384, le Conseil liégeois, entièrement entre les mains des artisans, possédait des prérogatives étendues dans l’administration et la gestion de la ville. Toutefois, la progression du pouvoir bourgeois se trouva brusquement stoppée, pour une dizaine d’années, lors de la défaite liégeoise d’Othée, en 1408. Ce mémoire porte sur l’évolution du pouvoir communal liégeois dans la première moitié du XVe siècle, moins bien connue des historiens. L’étude de la chronique de Jean de Stavelot permet de mettre en lumière cette période trouble. La défaite d’Othée de même que les réformes imposées par les princes-évêques causèrent notamment de grands bouleversements. Des partis politiques entrèrent aussi en scène et la présence voisine du puissant duc de Bourgogne influença la vie des Liégeois. Ces particularités issues du contexte politique et social sont autant d’éléments qui influèrent sur la volonté d’affirmation des bourgeois et l’exercice du pouvoir communal à Liège.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'administration fédérale canadienne et la Commission européenne ont construit, dans le courant des années 2000, deux réseaux de Systèmes d'informations géographiques (SIG) : le Système national d'information forestière au Canada, et l'Infrastructure d'information géographique dans la Communauté européenne. Ces SIG permettent le traitement géographique de données sociales et environnementales ainsi que leur représentation sur des cartes. Nous appréhendons ces deux réseaux de SIG sous l'angle de leur valeur heuristique : leur analyse nous permet d'étudier les configurations institutionnelles dans lesquelles ils ont été développés, c'est-à-dire, dans ces cas précis, ce qu'il est convenu d'appeler la « gouvernance ». Les SIG sont des instruments de mesure et de représentation de certains phénomènes : ils appartiennent à la classe des instruments d'objectivation. En tant qu'instruments d'objectivation, ils nous permettent de discuter deux éléments théoriques de la « gouvernance » : le rapport entre les administrations centrales et les administrations locales ; le rapport entre les administrations étatiques et les organisations non-étatiques. A travers cette discussion, nous montrons d'une part que la réarticulation de paliers de gouvernement différents ne signifie pas, comme cela a pu être écrit, un retrait de l'administration centrale au profit des administrations locales, mais au contraire une manière de contrôler plus étroitement celles-ci. Nous montrons d'autre part que cette renégociation des rapports entre les administrations centrales et locales ne s'accompagne pas, en pratique, d’une renégociation des rapports entre administrations étatiques et organisations non-étatiques. En révélant que les données non-étatiques ne sont pas intégrées dans les réseaux de SIG étatiques, nous relativisons les théories qui voient dans la « gouvernance » un mode de gouvernement ouvert aux organisations non-étatiques. Cela nous conduit à approfondir la piste qui envisage les instruments étatiques d'objectivation comme des moyens d'écarter de l'objectivation des phénomènes sociaux ou naturels les éléments qui contredisent l'action gouvernementale. Cette exégèse politique de deux ensembles de programmes informatiques particuliers – les SIG – nous amène, en conclusion, à proposer de considérer certains programmes informatiques comme des institutions politiques.