989 resultados para Dynamique orbitale
Resumo:
Dans le domaine de l’éducation, comme dans d’autres domaines d’intervention auprès des humains, les organismes d’agrément exigent de plus en plus que les pratiques professionnelles s’appuient sur des résultats de recherches qui les valident (des données probantes). Cela conduit certains chercheurs à privilégier des travaux qui suivent une démarche hypothético-déductive avec des dispositifs standardisés et des données étalonnées (quantitatives). D’autres, pour mieux comprendre ce qui se passe, privilégient l’induction analytique recourant à des dispositifs plus souples qui s’adaptent aux variations du terrain et produisent des données qui ne seront étalonnées qu’a posteriori (qualitatives). Enfin, un troisième groupe de chercheur utilise aussi des dispositifs adaptatifs, mais traite leur matériel de manière plus gestaltiste par typicalisation produisant des récits de dynamique professionnelle. Or, aucune de ces trois orientations de recherche ne parvient, comme le remarquait déjà Huberman en en 1982, à combler l’écart entre les recherches et le discours des enseignants-chercheurs d’une part, et leur participation effective à la formation de professionnels de l’intervention dont les pratiques devraient être fondées sur des données probantes. Des facteurs historiques peuvent excuser cette situation dans des départements et formations professionnelles jadis dispensées dans des grandes écoles non universitaires. Cependant, on constate que les pratiques de recherche restent largement inspirées par une image idéalisée de la recherche fondamentale ou expérimentale ou philosophique avec des visées épistémiques. Or, il y a d’autres domaines de savoir, celui de la technique, de la sagesse pratique et de l’art. Corrélativement, on peut dire qu’il y a d’autres métiers de chercheurs que celui qui consiste à développer des connaissances causales ou interprétatives alors que c’est à partir de cette seule sensibilité théorique que la notion de pôle paradigmatique a été développée et que les questions auxquelles les recherches qualitatives devaient répondre ont été établies . Aussi les questions et les réponses aux quatre pôles épistémologiques (ontologique, sémantique, instrumental et rhétorique) auront d’autres exigences de forme et de contenu pour les chercheurs engagés dans des perspectives technologiques, pratiques ou artistiques. L’hypothèse proposée pour tenter de comprendre le hiatus entre les recherches universitaires et l’attitude des praticiens porte sur le glissement opéré par trop de chercheurs entre une formulation de problèmes arrimés aux sensibilités technologiques, pratiques ou artistiques et leur reproblématisation dans la perspective d’une sensibilité théorique. Il en découle que ces recherches privilégient des dispositifs conçus pour vérifier ou découvrir des hypothèses discursives (la sémantique de l’intelligibilité de l’action, selon Barbier ), plutôt que des dispositifs semblables aux conditions de la pratique professionnelle et qui respectent ses contraintes. Or, les professionnels attendent des résultats de la recherche que ceux-ci prennent en compte les contraintes de leurs activités et que leurs conclusions soient formulées dans des formes de présentation qui leur sont appropriées : une sémantique et une rhétorique de l’action intelligente, selon la formule d’Evans qui définit la praxis comme une action pensée et finalisée autant qu’une finalité pensée et agie. Quatre cas de professeurs-chercheurs et d’étudiants illustrent cette tension et les glissements méthodologiques vers l’épistémique au détriment des sensibilités professionnelles et les difficultés qui en découlent, surtout pour les étudiants. Or, il y a moyen de résoudre autrement cette tension, à condition de changer de posture. C’est la piste que nous suggérons avec une méthodologie qui respecte les contraintes de l’activité professionnelle, qui exploite les formulations et les dispositifs propres aux praticiens, et qui utilise les confrontations entre l’activité et les praticiens eux-mêmes comme démarche de la co-construction d’une présentation explicitant l’intelligence de l’action.
Resumo:
La transmission mère-enfant (TME) du virus de l’hépatite C (VHC) est la première cause d’acquisition de l’infection chez les enfants des pays développés. Celle-ci prend place dans <10% des cas. Toutefois, dans le cas d’une coinfection maternelle avec le virus de l’immunodéficience de type 1 (VIH-1), ce taux est accru alors qu’il n’existe aucune intervention préventive de la TME du VHC. Le VHC arbore une diversité importante qui est le résultat d’une réplication exempte de mécanisme de correction. Il est donc retrouvé chez son hôte sous la forme d’un spectre de virions génétiquement apparentés mais différents qu’on appelle quasiespèce. Lorsque le VHC est transmis entre adultes, seulement un nombre limité de variantes sont responsables de l’infection, c’est ce qu’on appelle un goulot d’étranglement génétique. L’existence d’un tel profil de transmission lors de la TME du VHC restait, jusqu’à maintenant, à confirmer. En se basant sur la détection par RT-PCR de la virémie à la naissance, la TME du VHC est réputée prendre place in utero et peripartum, une dynamique de transmission qui reste à démontrer. Ici, nous rapportons une analyse longitudinale de la TME du VHC par séquençage de nouvelle génération chez 5 paires mère-enfant dont 3 mères sont également coinfectées avec le VIH-1. L’analyse de l’identité des variantes virales basée sur la séquence nucléotidique des régions hypervariables 1-2 de la glycoprotéine E2 (positions 1491-1787 de l’isolat H77) révèle qu’un nombre limité de variantes virales sont transmises de la mère à l’enfant lorsque la mère est seulement infectée par le VHC (n = 1-4 variantes transmises). Dans le cas de la coinfection maternelle avec le VIH-1, ce nombre est toutefois drastiquement plus important (n = 111-118). La détection de variantes retrouvées chez la mère au deuxième trimestre et l’enfant mais non détectées subséquemment chez la mère témoigne que la TME du VHC peut prendre place aussi tôt que lors du deuxième trimestre de grossesse. Finalement, nous montrons que la dynamique d’infection chez l’enfant implique une augmentation transitoire de la virémie concomitante avec une perte de diversité de la quasiespèce. Dans l’ensemble ces résultats sont les premiers à démontrer directement l’existence d’un goulot d’étranglement lors de la TME du VHC. Celui-ci serait moins restringent dans le cas de la coinfection maternelle avec le VIH-1. Cette transmission peut prendre place aussi tôt que lors du deuxième trimestre de grossesse et il semblerait qu’un spectre limité de variantes soit responsable pour l’établissement de l’essentiel de la production virale chez le jeune enfant.
Resumo:
L’utilisation accrue des nanomatériaux manufacturés (NM) fait en sorte que les différents acteurs de réglementation se questionnent de plus en plus par rapport à leur destin et leurs impacts sur les écosystèmes et la santé humaine suite à leur rejet dans l’environnement. Le développement de techniques analytiques permettant de détecter et de caractériser les NM en matrice environnementale est impératif étant donné la nécessité d’évaluer le risque relié à ces polluants émergents. Une des approches de plus en plus favorisée est d’utiliser une technique chromatographique et un ou plusieurs détecteurs sensibles dans les buts de réduire les effets de matrice, d’identifier des nanoparticules (NP) selon leurs temps de rétention et de les quantifier à des concentrations représentatives de la réalité environnementale. Une technique analytique utilisant la chromatographie hydrodynamique (HDC) et des détecteurs en ligne ou hors ligne (détecteurs de diffusion statique ou dynamique de la lumière, spectromètre de masse par torche à plasma en mode particule unique (SP-ICPMS), l’ultracentrifugation analytique) a donc été développée. Le couplage de la colonne HDC avec ces détecteurs a permis de caractériser des NP standards et l’optimisation des conditions de séparation de ces nanoparticules de polystyrène, d’or et d’argent a permis de confirmer que les NP y sont bel et bien séparées seulement selon leur taille, tel que la théorie le prédit. De plus, l’utilisation de la colonne HDC couplée au SP-ICPMS a permis de séparer un mélange de nanoparticules d’argent (nAg) et de les détecter à des concentrations représentatives de celles rencontrées dans l’environnement, soit de l’ordre du μg L-1 au ng L-1. Par exemple, dans un échantillon d’eau usée (effluent), un mélange de nAg de 80 et de 40 nm a été séparé et les nAg ont été détectées à l’aide du SP-ICPMS connecté à la colonne HDC (temps de rétention de 25.2 et 25.6 minutes et diamètres déterminés de 71.4 nm et 52.0 nm). Finalement, pour plusieurs échantillons environnementaux auxquels aucun ajout de nanoparticules n’a été fait, les analyses HDC-SP-ICPMS effectuées ont permis de déterminer qu’ils ne contenaient initialement pas de nAg.
Resumo:
Consumers are legitimate stakeholders but are unevenly active and powerful in the dynamics that can lead companies to a more socially responsible behaviour. This article proposes to test the relevance, across the struggles of consumers, of the well-known opposition in business ethics between ethics of justice and ethics of care. Relying on a semi-participant direct and webnographic observation of a wide citizen movement that arose in Spain, questioning banks and mortgage regulation, after the explosion of the housing bubble in 2008, this article strives to highlight the permanent dual approach to ethics at all levels of the movement, from spokespersons to supporters, in speech and in actions. One approach is more focused on laws and principles, whereas the other is more focused on direct support to people affected by foreclosures. This article demonstrates the continuities between these two registers of justice and care and their functional complementarities in the dynamics of mobilization. A discussion will then follow on the substance of the opposition between the ethics of justice and the ethics of care as well as on the possible representativeness of this case: behind the singularities of the mortgage issue or of Spanish political culture, one cannot but observe the challenging mobilizing process that comprises a human rightist activism combined with a feminist approach to social issues.
Resumo:
Bien que l’on ait longtemps considéré que les substrats cérébraux de la mémoire sémantique (MS) demeuraient intacts au cours du vieillissement normal (VN), en raison d’une préservation de la performance des personnes âgées à des épreuves sémantiques, plusieurs études récentes suggèrent que des modifications cérébrales sous-tendant le traitement sémantique opèrent au cours du vieillissement. Celles-ci toucheraient principalement les régions responsables des aspects exécutifs du traitement sémantique, impliqués dans les processus de recherche, de sélection et de manipulation stratégique de l’information sémantique. Cependant, les mécanismes spécifiques régissant la réorganisation cérébrale du traitement sémantique au cours du VN demeurent méconnus, notamment en raison de divergences méthodologiques entre les études. De plus, des données de la littérature suggèrent que des modifications cérébrales associées au vieillissement pourraient également avoir lieu en relation avec les aspects perceptifs visuels du traitement des mots. Puisque le processus de lecture des mots représente un processus interactif et dynamique entre les fonctions perceptuelles de bas niveau et les fonctions de plus haut niveau tel que la MS, il pourrait exister des modifications liées à l’âge au plan des interactions cérébrales entre les aspects perceptifs et sémantiques du traitement des mots. Dans son ensemble, l’objectif de la présente thèse était de caractériser les modifications cérébrales ainsi que le décours temporel du signal cérébral qui sont associés au traitement sémantique ainsi qu’au traitement perceptif des mots en lien avec le VN, ainsi que les relations et les modulations entre les processus sémantiques et perceptifs au cours du VN, en utilisant la magnétoencéphalographie (MEG) comme technique d’investigation. Dans un premier temps (chapitre 2), les patrons d’activation cérébrale d’un groupe de participants jeunes et d’un groupe de participants âgés sains ont été comparés alors qu’ils effectuaient une tâche de jugement sémantique sur des mots en MEG, en se concentrant sur le signal autour de la N400, une composante associée au traitement sémantique. Les résultats démontrent que des modifications cérébrales liées à l’âge touchent principalement les structures impliquées dans les aspects exécutifs du traitement sémantique. Une activation plus importante du cortex préfrontal inférieur (IPC) a été observée chez les participants jeunes que chez les participants âgés, alors que ces derniers activaient davantage les régions temporo-pariétales que les jeunes adultes. Par ailleurs, le lobe temporal antérieur (ATL) gauche, considéré comme une région centrale et amodale du traitement sémantique, était également davantage activé par les participants âgés que par les jeunes adultes. Dans un deuxième temps (chapitre 3), les patrons d’activation cérébrale d’un groupe de participants jeunes et d’un groupe de participants âgés sains ont été comparés en se concentrant sur le signal associé au traitement perceptif visuel, soit dans les 200 premières millisecondes du traitement des mots. Les résultats montrent que des modifications cérébrales liées à l’âge touchent le gyrus fusiforme mais aussi le réseau sémantique, avec une plus grande activation pour le groupe de participants âgés, malgré une absence de différence d’activation dans le cortex visuel extrastrié entre les deux groupes. Les implications théoriques des résultats de ces deux études sont ensuite discutées, et les limites et perspectives futures sont finalement adressées (chapitre 4).
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
Entailing of phosphorus exchanges in most bio-chemicals as a key factor in disease, increases researcher’s interest to develop the technologies capable of detecting this metabolite. Phosphorus magnetic resonance spectroscopy is able to detect key metabolites in a non-invasive manner. Particularly, it offers the ability to measure the dynamic rate of phosphocreatine(PCr) degeneration through the exercise and recovery. This metric as a valid indication of mitochondrial oxidative metabolism in muscle, differentiate between normal and pathological state. To do magnetic resonance imaging and spectroscopy, clinical research tools provide a wide variety of anatomical and functional contrasts, however they are typically restricted to the tissues containing water or hydrogen atoms and they are still blind to the biochemicals of other atoms of interests. Through this project we intended to obtain the phosphorus spectrum in human body – specificadenerativelly in muscle – using 31P spectroscopy. To do so a double loop RF surface coil, tuned to phosphorus frequency, is designed and fabricated using bench work facilities and then validated through in vitro spectroscopy using 3 Tesla Siemens scanner. We acquired in vitro as well as in vivo phosphorus spectrum in a 100 mM potassium phosphate phantom and human calf muscle in rest-exercise-recovery phase in a 3T MR scanner. The spectrum demonstrates the main constituent in high-energy phosphate metabolism. We also observed the dynamic variation of PCr for five young healthy subjects who performed planter flexions using resistance band during exercise and recovery. The took steps in this project pave the way for future application of spectroscopic quantification of phosphate metabolism in patients affected by carotid artery disease as well as in age-matched control subjects.
Resumo:
La guerre et ses conséquences sont trop importantes pour que la réflexion philosophique ne s’y attarde pas. Pour comprendre ses fondements et ses mécanismes internes, il faut une pensée qui creuse au coeur même des comportements guerriers. C’est ce que Thomas Hobbes et Carl von Clausewitz ont chacun tenté de faire en réfléchissant sur la nature de la guerre. Ce mémoire vise entre autres à rendre compte de leur théorie respective sur la nature de la guerre et de voir les rapprochements possibles. L’analyse du concept d’état de guerre et de ses causes chez Hobbes, de même que la pensée de Clausewitz centrée sur la nature de la guerre, rendent compte d’une même dynamique où la relation de réciprocité qu’entretiennent les belligérants conduit à une montée de la violence. La notion de volonté est centrale chez nos auteurs, car elle explique autant cette montée continue de la violence que sa possible résolution vers la paix. Écartant la sphère de la morale et du droit pour penser le phénomène guerrier, leurs réflexions se veulent froides et sans illusion. En saisissant la dynamique relationnelle (et mimétique) qui conduit à un désir illimité de puissance, nos deux auteurs décortiquent l’essence de la guerre par une pensée fondamentalement orientée vers la paix. Ainsi nous donnent-ils des outils pour éviter le pire.
Resumo:
Cette recherche se situe dans le contexte de la société du savoir et de la nécessité de l’apprentissage et du développement professionnel tout au long de la vie. Elle porte sur la dynamique motivationnelle qui anime les enseignants en processus d’apprentissage professionnel, c’est-à-dire lorsqu’ils doivent accomplir des activités dans un programme de formation continue. Les objectifs de cette recherche sont les suivants : développer et valider une échelle qui mesure la satisfaction des besoins psychologiques fondamentaux dans le contexte du développement professionnel lié à l’intégration des TIC chez les enseignants du primaire et du secondaire; déterminer le degré de satisfaction des besoins psychologiques fondamentaux des enseignants dans le contexte de la formation continue concernant l’intégration des TIC; déterminer la perception des enseignants à l’égard de la pertinence des activités de formation continue; identifier les activités et les conditions organisationnelles favorisant la motivation des enseignants du primaire dans leur développement professionnel concernant l’intégration des TIC. Pour atteindre nos objectifs de recherche, nous avons adopté une méthodologie de type mixte, comprenant l’analyse des données quantitatives recueillies à l’aide d’un questionnaire à question fermées (64 participants) et des données qualitatives collectées à l’aide d’entrevues individuelles (5 participants). Malgré certaines limites méthodologiques et conceptuelles, les résultats de la présente recherche indiquent que le soutien à l’autonomie, au sentiment de compétence et à l’appartenance sociale, de même que la pertinence des activités de formation sont proposés comme déterminants principaux de la satisfaction et de la motivation dans le développement professionnel des enseignants. Les résultats de cette recherche ouvrent également la voie à des pistes pour favoriser la motivation dans le développement professionnel et proposent des idées de recherche prospectives.
Resumo:
Ce projet de maitrise implique le développement et l’optimisation de deux méthodes utilisant la chromatographie liquide à haute performance couplée à la spectrométrie de masse en tandem (HPLC-MS/MS). L'objectif du premier projet était de séparer le plus rapidement possible, simultanément, 71 médicaments traitant la dysfonction érectile (ED) et 11 ingrédients naturels parfois retrouvés avec ces médicaments dans les échantillons suspectés d’être adultérés ou contrefaits. L'objectif du deuxième projet était de développer une méthode de dépistage permettant l'analyse rapide simultanée de 24 cannabinoïdes synthétiques et naturels pour une grande variété d'échantillons tels que les mélanges à base de plantes, des bâtons d'encens, de sérums et de cannabis. Dans les deux projets, la séparation a été réalisée en moins de 10 min et cela en utilisant une colonne C18 à noyau solide 100 x 2,1 mm avec des particules de 2,6 µm de diamètre couplée à un système MS avec trappe ionique orbitale fonctionnant en électronébulisation positive. En raison du nombre élevé de composés dans les deux méthodes et de l’émergence de nouveaux analogues sur le marché qui pourraient être présents dans les échantillons futurs, une méthode de dépistage LC-MS/MS ciblée/non-ciblée a été développée. Pour les deux projets, les limites de détection étaient sous les ng/mL et la variation de la précision et de l’exactitude étaient inférieures de 10,5%. Le taux de recouvrement à partir des échantillons réels variait entre 92 à 111%. L’innovation des méthodes LC-MS/MS développées au cours des projets est que le spectre de masse obtenu en mode balayage lors de l'acquisition, fournit une masse exacte pour tous les composés détectés et permet l'identification des composés initialement non-ciblés, comme des nouveaux analogues. Cette innovation amène une dimension supplémentaire aux méthodes traditionnellement utilisées, en permettant une analyse à haute résolution sur la masse de composés non-ciblés.
Resumo:
Dans le but d’optimiser la représentation en mémoire des enregistrements Scheme dans le compilateur Gambit, nous avons introduit dans celui-ci un système d’annotations de type et des vecteurs contenant une représentation abrégée des enregistrements. Ces derniers omettent la référence vers le descripteur de type et l’entête habituellement présents sur chaque enregistrement et utilisent plutôt un arbre de typage couvrant toute la mémoire pour retrouver le vecteur contenant une référence. L’implémentation de ces nouvelles fonctionnalités se fait par le biais de changements au runtime de Gambit. Nous introduisons de nouvelles primitives au langage et modifions l’architecture existante pour gérer correctement les nouveaux types de données. On doit modifier le garbage collector pour prendre en compte des enregistrements contenants des valeurs hétérogènes à alignements irréguliers, et l’existence de références contenues dans d’autres objets. La gestion de l’arbre de typage doit aussi être faite automatiquement. Nous conduisons ensuite une série de tests de performance visant à déterminer si des gains sont possibles avec ces nouvelles primitives. On constate une amélioration majeure de performance au niveau de l’allocation et du comportement du gc pour les enregistrements typés de grande taille et des vecteurs d’enregistrements typés ou non. De légers surcoûts sont toutefois encourus lors des accès aux champs et, dans le cas des vecteurs d’enregistrements, au descripteur de type.
Resumo:
Cette thèse est divisée en deux grands chapitres, dont le premier porte sur des problèmes de commande optimale en dimension un et le deuxième sur des problèmes en dimension deux ou plus. Notons bien que, dans cette thèse, nous avons supposé que le facteur temps n'intervient pas. Dans le premier chapitre, nous calculons, au début, l'équation de programmation dynamique pour la valeur minimale F de l'espérance mathématique de la fonction de coût considérée. Ensuite, nous utilisons le théorème de Whittle qui est applicable seulement si une condition entre le bruit blanc v et les termes b et q associés à la commande est satisfaite. Sinon, nous procédons autrement. En effet, un changement de variable transforme notre équation en une équation de Riccati en G= F', mais sans conditions initiales. Dans certains cas, à partir de la symétrie des paramètres infinitésimaux et de q, nous pouvons en déduire le point x' où G(x')=0. Si ce n'est pas le cas, nous nous limitons à des bonnes approximations. Cette même démarche est toujours possible si nous sommes dans des situations particulières, par exemple, lorsque nous avons une seule barrière. Dans le deuxième chapitre, nous traitons les problèmes en dimension deux ou plus. Puisque la condition de Whittle est difficile à satisfaire dans ce cas, nous essayons de généraliser les résultats du premier chapitre. Nous utilisons alors dans quelques exemples la méthode des similitudes, qui permet de transformer le problème en dimension un. Ensuite, nous proposons une nouvelle méthode de résolution. Cette dernière linéarise l'équation de programmation dynamique qui est une équation aux dérivées partielles non linéaire. Il reste à la fin à trouver les conditions initiales pour la nouvelle fonction et aussi à vérifier que les n expressions obtenues pour F sont équivalentes.
Resumo:
Les logiciels sont de plus en plus complexes et leur développement est souvent fait par des équipes dispersées et changeantes. Par ailleurs, de nos jours, la majorité des logiciels sont recyclés au lieu d’être développés à partir de zéro. La tâche de compréhension, inhérente aux tâches de maintenance, consiste à analyser plusieurs dimensions du logiciel en parallèle. La dimension temps intervient à deux niveaux dans le logiciel : il change durant son évolution et durant son exécution. Ces changements prennent un sens particulier quand ils sont analysés avec d’autres dimensions du logiciel. L’analyse de données multidimensionnelles est un problème difficile à résoudre. Cependant, certaines méthodes permettent de contourner cette difficulté. Ainsi, les approches semi-automatiques, comme la visualisation du logiciel, permettent à l’usager d’intervenir durant l’analyse pour explorer et guider la recherche d’informations. Dans une première étape de la thèse, nous appliquons des techniques de visualisation pour mieux comprendre la dynamique des logiciels pendant l’évolution et l’exécution. Les changements dans le temps sont représentés par des heat maps. Ainsi, nous utilisons la même représentation graphique pour visualiser les changements pendant l’évolution et ceux pendant l’exécution. Une autre catégorie d’approches, qui permettent de comprendre certains aspects dynamiques du logiciel, concerne l’utilisation d’heuristiques. Dans une seconde étape de la thèse, nous nous intéressons à l’identification des phases pendant l’évolution ou pendant l’exécution en utilisant la même approche. Dans ce contexte, la prémisse est qu’il existe une cohérence inhérente dans les évènements, qui permet d’isoler des sous-ensembles comme des phases. Cette hypothèse de cohérence est ensuite définie spécifiquement pour les évènements de changements de code (évolution) ou de changements d’état (exécution). L’objectif de la thèse est d’étudier l’unification de ces deux dimensions du temps que sont l’évolution et l’exécution. Ceci s’inscrit dans notre volonté de rapprocher les deux domaines de recherche qui s’intéressent à une même catégorie de problèmes, mais selon deux perspectives différentes.
Resumo:
Cette thèse est une exploration de mon processus compositionnel. En tentant de comprendre comment s’organise ma pensée créatrice, j’ai dégagé trois observations : l’organicisme du processus et des œuvres, la notion de mouvement et la relation récursive entre la matière et le compositeur. Ces thèmes m’ont amené à établir un lien épistémologique entre la composition musicale et l’étude des systèmes complexes. Dans ce cadre systémique, j’ai établi que les informations qui motivent mes prises de décision artistiques ont entre elles des ramifications opérationnelles et structurelles qui évoquent une arborescence rhizomatique plutôt qu’une hiérarchie linéaire. La transdisciplinarité propre à la systémique m’a également permis d’introduire des notions provenant d’autres champs de recherche. S’articulant d’emblée avec mon processus compositionnel, ces notions m’ont procuré une vision holistique de ma démarche artistique. Conséquemment, je considère l’acte de composer comme une interaction entre ma conscience et tout ce qui peut émaner de la matière sonore, les deux s’informant l’une et l’autre dans une boucle récursive que je nomme action⟳perception. L’œuvre ainsi produite n’est pas exclusivement tributaire de ma propre volition puisque, au fil du processus, mes décisions opératoires et artistiques sont en grande partie guidées par les propriétés invariantes et les propriétés morphogéniques inhérentes au matériau sonore. Cette approche dynamique n’est possible que si l’interaction avec le compositeur se fait en temps réel, ce que permet la lutherie numérique. Les résultats de mes recherches m’ont guidé dans la composition d’œuvres choisies, autant acousmatiques, mixtes, vidéomusicales que pluridisciplinaires.
Resumo:
Les événements fondateurs et les expansions territoriales peuvent promouvoir une cascade de changements génétiques et ont ainsi pu jouer un rôle important au cours de l’histoire évolutive de l’Homme moderne. Or, chez les populations humaines, les conséquences évolutives et la dynamique démographique des processus de colonisation demeurent largement méconnues et difficiles à étudier. Dans cette thèse, nous avons utilisé les généalogies de la population fondatrice canadienne-française ainsi que des données génomiques pour étudier ces questions. Les analyses génomiques et généalogiques, remarquablement concordantes, ont dévoilé un nouveau portrait détaillé de la structure de la population du Québec, incluant un continuum de diversité génétique dans l’axe ouest/est et des sous-populations significativement différenciées. L’analyse de l’immigration fondatrice a montré que virtuellement tous les Canadiens français sont métissés. Allant à l’encontre d’une prétendue homogénéité génétique de la population, nos résultats démontrent que le peuplement des régions a engendré une rapide différentiation génétique et expliquent certaines signatures régionales de l’effet fondateur. De plus, en suivant les changements évolutifs dans les généalogies, nous avons montré que les caractéristiques des peuplements fondateurs peuvent affecter les traits liés à la fécondité et au succès reproducteur. Cette thèse offre une meilleure compréhension du patrimoine génétique du Québec et apporte des éléments de réponse sur les conséquences évolutives des événements fondateurs.