302 resultados para Invariantes conformes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse, intitulée Le pohète initié : Illumination et esthétique ésotérique dans l’œuvre de Gellu Naum, analyse trois œuvres importantes de Gellu Naum, le roman Zenobia, les proses La voie du serpent et Medium, ainsi que le rapport entre la poésie picturale de Gellu Naum et la peinture narrative de Victor Brauner. Les œuvres de Gellu Naum que nous analysons possèdent des points communs synthétisés dans la figure de l’illumination, qui signale l’existence d’un régime de connaissance refondé. L’illumination se base sur des théories ésotériques et surréalistes et s’ouvre également sur une nouvelle interprétation du sacré, dénouée de tout caractère religieux. L’illumination institue et entretient un climat mystique à travers les écrits de Gellu Naum et les productions plastiques de Victor Brauner et consolide en même temps leurs doctrines esthétiques. Pour Gellu Naum, l’illumination est le but suprême de l’existence. Elle a affaire avec la capacité de voir avec les yeux du dedans. Dans ce registre ésotérique, la possibilité d’arriver de l’autre côté, c’est-à-dire dans la part invisible de la réalité, stratifiée jusqu’à son niveau archaïque, est réelle et révélatrice. Selon Gellu Naum, l’artiste doit mettre son œil à l’état sauvage pour décrire l’état transcendantal dans lequel résident ses héros; ceci en essayant de contrecarrer un grave bouleversement historique, puisque le totalitarisme roumain a éclipsé à tout jamais l’espace de l’existence. L’écriture de Naum porte les traces noires de cette incidence néfaste. Pour Victor Brauner, l’illumination a une fonction initiatrice. Elle cristallise l’art du peintre et l’éclaire tout au long de sa quête identitaire. L’illumination entretient et provoque une catharsis aux connotations inattendues dans la production artistique, s’articulant avec une consécration de l’ésotérisme. Partant d’une perspective interdisciplinaire, la thèse se divise en trois parties, Le roman Zenobia et la question de la pensée illuminée, L’état transcendantal et ses variables ou De la logique occulte de l’écriture et Les expressions de la poésie picturale et de la peinture narrative à travers les œuvres de Gellu Naum et de Victor Brauner, chacune d’entre elles analysant la figure de l’illumination et établissant aussi les invariantes esthétiques des deux Surréalistes. Dans leur quête de nouvelles formes de représentations artistiques, Gellu Naum et Victor Brauner ont recours à un surréalisme essentiellement cognitif. Les deux font appel à la rationalité, à la lucidité accrue, ce que les Surréalistes rejetaient parfois avec véhémence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette étude est de déterminer qui paie pour le risque de pollution et par conséquent de vérifier si le principe du pollueur-payeur est effectivement mis en œuvre dans le domaine de la gestion du risque environnemental. Il s’agit d’examiner le degré de mutualisation de la gestion du risque dans différentes législations particulière. Les payeurs peuvent a priori se classer dans quatre catégories : les personnes dont l’activité contribue au risque de pollution, les compagnies d’assurance qui acceptent d’assurer ces personnes, les organismes ou autorités publics et les tiers. Divers exemples issus de la législation belge ou européenne seront examinés afin de déterminer s’ils sont conformes à la lettre et/ou à l’esprit du principe pollueur-payeur. Il s’agit notamment de la responsabilité civile, de la responsabilité environnementale, de la gestion des déchets et du marché de quotas d’émissions de gaz à effet de serre. Les techniques de responsabilité qui interviennent après que le dommage ait lieu et requièrent la démonstration de l’existence d’un lien de causalité ne permettent pas toujours d’assurer pleinement la fonction préventive du principe du pollueur-payeur. Elles ne constituent pas des instruments adéquats de gestion de la pollution diffuse ou chronique. En conséquence, des techniques de mutualisation de la gestion du risque environnemental se sont développées. Le recours à ces techniques de mutualisation (par le recours à l’assurance, aux fonds publics financés par la fiscalité environnementale ou aux marchés de droit d’émissions) est-il conforme au principe pollueur-payeur et permet-il d’atteindre l’objectif d’un niveau élevé de protection de l’environnement ? L’effet dissuasif du principe pollueur-payeur n’est-il pas amoindri par la mutualisation ? L’article montre que la définition du principe pollueur-payeur par la Cour de Justice de l’Union européenne est centrée sur la contribution au risque de pollution ce qui permet de recourir aux techniques de mutualisation de la gestion du risque tout en respectant le Traité sur le fonctionnement de l’Union européenne. 

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La Ribonucléase P (RNase P) est une enzyme principalement reconnue pour sa participation à la maturation en 5’des ARN de transfert (ARNt). Cependant, d’autres substrats sont reconnus par l’enzyme. En général, la RNase P est composée d’une sous-unité ARN (le P-ARN, codé par le gène rnpB) qui porte le centre actif de l’enzyme et d’une ou de plusieurs sous-unités protéiques (la P-protéine). Les P-ARN chez toutes les bactéries, la majorité des archéobactéries et dans le génome nucléaire de la plupart des eucaryotes, possèdent généralement une structure secondaire très conservée qui inclut le noyau (P1-P4); l’hélice P4 constitue le site catalytique de l’enzyme et l’hélice P1 apparie les extrémités du P-ARN en stabilisant sa structure globale. Les P-ARN mitochondriaux sont souvent moins conservés et difficiles à découvrir. Dans certains cas, les seules régions de structure primaire qui restent conservées sont celles qui définissent le P4 et le P1. Pour la détection des gènes rnpB, un outil de recherche bioinformatique, basé sur la séquence et le profil de structure secondaire, a été développé dans le laboratoire. Cet outil permet le dépistage de toutes les séquences eucaryotes (nucléaires et mitochondriales) du gène avec une très grande confiance (basée sur une valeur statistique, E-value). Chez les champignons, plusieurs ascomycètes encodent un gène rnpB dans leur génome mitochondrial y compris tous les membres du genre d’Aspergillus. Cependant, chez les espèces voisines, Neurospora crassa, Podospora anserina et Sordaria macrospora, une version mitochondriale de ce gène n’existe pas. Au lieu de cela, elles contiennent deux copies nucléaires du gène, légèrement différentes en taille et en contenu nucléotidique. Mon projet a été établi dans le but d’éclaircir l’évolution de la RNase P mitochondriale (mtRNase P) chez ces trois espèces voisines d’Aspergillus. En ce qui concerne les résultats, des modèles de structures secondaires pour les transcrits de ces gènes ont été construits en se basant sur la structure consensus universelle de la sous-unité ARN de la RNase P. Pour les trois espèces, par la comparaison de ces modèles, nous avons établi que les deux copies nucléaires du gène rnpB sont assez distinctes en séquence et en structure pour pouvoir y penser à une spécialisation de fonction de la RNase P. Chez N. crassa, les deux P-ARN sont modifiés probablement par une coiffe et les extrémités 5’, 3’ sont conformes à nos modèles, ayant un P1 allongé. Encore chez N. crassa, nous avons constaté que les deux copies sont transcrites au même niveau dans le cytoplasme et que la plus petite et la plus stable d’entre elles (Nc1) se retrouve dans l’extrait matriciel mitochondrial. Lors du suivi du P-ARN dans diverses sous-fractions provenant de la matrice mitochondriale soluble, Nc1 est associée avec l’activité de la RNase P. La caractérisation du complexe protéique, isolé à partir de la fraction active sur un gel non dénaturant, révèle qu’il contient au moins 87 protéines, 73 d’entre elles ayant déjà une localisation mitochondriale connue. Comme chez la levure, les protéines de ce complexe sont impliquées dans plusieurs fonctions cellulaires comme le processing de l’ADN/ARN, le métabolisme, dans la traduction et d’autres (par exemple : la protéolyse et le repliement des protéines, ainsi que la maintenance du génome mitochondrial). Pour trois protéines, leur fonction est non déterminée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La population mondiale est en train de vieillir. Le vieillissement augmente le risque des pertes de la force musculaire (FM), du diabète type II (T2D) et du déclin de la capacité fonctionnelle (CF). Indépendamment de l’âge, les personnes âgées diabétiques ont un risque accru des pertes de la FM et du déclin de la CF comparées aux non-diabétiques. La nutrition est un facteur déterminant d’un vieillissement optimal et joue un rôle primordial dans la prise en charge du diabète, minimise les pertes de FM et peut moduler le déclin de la CF. De plus, l’activité physique (AP) offre des bénéfices semblables à ceux de la nutrition. Ainsi, l’objectif principal de cette thèse est de déterminer le rôle de la qualité alimentaire (QA) dans le maintien de la CF chez les personnes âgées diabétiques vivant dans la communauté, par le biais des analyses secondaires réalisées sur la base de données de la cohorte NuAge. En vue de la réalisation de cet objectif, une caractérisation de plusieurs variables en lien avec la CF était nécessaire. Ainsi, une description globale de l’alimentation des personnes âgées diabétiques fut effectuée. Ensuite, chacun des articles présentés a testé un objectif spécifique chez ces personnes âgées diabétiques, afin de : 1) déterminer si la QA seule, ou combinée à l’AP est associée au maintien des forces musculaires (FM) ; 2) déterminer si la QA seule, ou combinée à l’AP est associée à la prévention du déclin de la CF ; et 3) examiner l’association entre la suffisance en apports énergétique et protéique et le maintien des FM et la CF. De plus, l’association entre la QA, l’AP et la performance physique (PP) a été examinée. Cette thèse de doctorat est la première à examiner le rôle de la QA dans la CF chez la population âgée diabétique. En particulier, les résultats ont montré que la population diabétique de NuAge se caractérise par une bonne alimentation globale et de bonnes habitudes alimentaires, avec des apports en macronutriments conformes aux recommandations nutritionnelles. Néanmoins, ces participants devraient augmenter leurs apports en micronutriments qui étaient inférieurs aux recommandations chez la majorité. En outre, aucune association significative n’a été observée entre la QA seule et le maintien des FM, ni le déclin de la PP et la CF. Cependant, la QA combinée à l’AP a été associée aux FM des membres supérieurs. Spécifiquement, les hommes diabétiques ayant une bonne QA combinée à une stabilité de l’AP pendant les trois ans de suivi ont subi des pertes minimes de la FM comparés aux autres. Toutefois, aucune association n’a été observée pour les FM des membres inférieurs. De plus, la QA combinée à l’AP n’était associée ni à la PP ni à la CF chez ces participants. Finalement, les analyses ont démontré que la suffisance en apports énergétiques et protéiques est associée au maintien de la CF. En effet, un apport en énergie égal ou supérieur à 30 kcal/kg poids corporel a minimisé le déclin de la CF comparativement à un apport inférieur à 30 kcal/kg chez les hommes, alors que les femmes ayant un apport protéique égal ou supérieur à 1g/kg poids corporel ont subi un déclin minime de la CF comparées à celles ayant des apports en protéines inférieurs à 1g/kg. Enfin, il a été démontré qu’un apport suffisant en protéines a minimisé les pertes de FM des membres inférieurs chez les femmes diabétiques de la cohorte NuAge. Collectivement, les résultats de cette thèse fournissent des données probantes indiquant qu’une bonne QA, des apports suffisants en énergie et en protéines et une bonne pratique de l’AP sont nécessaires afin de minimiser les pertes de la FM reliées au vieillissement et accélérées par la présence du diabète et par la suite maintenir la CF des personnes âgées diabétiques. Cependant, d’autres études seront nécessaires pour confirmer ces résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Montréal, Québec se construit vers une forme urbaine compacte, mais il en relève des questionnements quant aux effets sur l’abordabilité et l’accession à la propriété. En tenant compte du processus de la densification urbaine, une enquête sur une série de projets de condominiums immobiliers à travers la ville est menée afin de divulguer les prix des projets nouveaux ou en construction. Au préalable, ceci survole la littérature et les études actuelles portant sur la planification urbaine, notamment celles qui sont reliées au Smart Growth, études dans lesquelles le contexte de densification et de tendances consuméristes à préférer les formes urbaines étalées est mis en évidence. Essentiellement, Moroni (2010) souligne l’approche dichotomique en planification urbaine entre les perspectives «teleocratic» et «nomocratic». La densification montréalaise actuelle contemporaine s’exprime par une multitude de modèles de condos conformes aux nouvelles tendances démographiques et des modes de vie. En s’appuyant sur les critères du programme Accès Condos, sur les critères du SCHL (32% du revenu) et sur le revenu médian des ménages, le niveau d’accessibilité à la propriété d’un condominium peut être mesuré. Les résultats indiquent que selon ces critères, les logements de style condominium, neufs et en construction, sont abordables. L’analyse contribue empiriquement à la littérature en exposant les liens entre les stratégies actuelles de densification urbaine avec l’abordabilité des logements condos. La recherche porte un regard nouveau sur le phénomène condo à Montréal et ses tendances démographiques. La ville est divisée selon le modèle Burgess et la recherche mène un sondage comparatif des prix pour déterminer l’abordabilité. Les résultats suggèrent que les projets condos actuels sont relativement abordables pour les ménages avec un revenu médian et plus, selon Accès Condos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les hétérojonctions formées de deux matériaux, un donneur et un accepteur (D/A), sont la base de la majorité des mélanges photovoltaïques organiques. Les mécanismes de séparation des charges dans ces systèmes représentent aujourd'hui l'un des sujets les plus chauds et les plus débattus dans ce domaine. Nous entrons au coeur de ce débat en choisissant un système D/A à base de phtalocyanine de cuivre (CuPc) et de fullerène (C60). Pour sonder les états excités de nos molécules et obtenir de l'information sur les phénomènes à l'interface D/A, nous réalisons une expérience pompe-sonde, appelée absorption photoinduite (PIA). Nous y mesurons le changement fractionnaire de transmission au travers de l'échantillon. Les mesures de PIA sont réalisées à l'état de quasi équilibre, à T=10K. Nous observons une modulation prononcée dans la région du photoblanchiment de l'état fondamental qui nous indique que la pompe induit un décalage du spectre d'absorption de l'état fondamental. Ce décalage peut être expliqué par deux processus : soit l'échantillon est chauffé par la pompe (effet thermique) ou bien des charges sont créées à l'interface entre les deux matériaux (effet Stark). La dépendance en température du spectre d'absorption entre 10K et 290K montre une signature thermique pour un changement de température de 80K. Grâce au ratio des raies Raman anti-Stokes et Stokes, nous démontrons que la pompe chauffe l'échantillon de 34 K, température insuffisante pour attribuer notre signal à un effet thermique. Nous évaporons ensuite la bicouche CuPc/C60 sur de l'ITO et du saphir, substrats qui possèdent des conductivités thermiques différentes et nous observons le même signal de PIA, excluant par le fait même l'hypothèse de l'effet thermique. Puisque notre étude est comparable à la spectroscopie à effet Stark, nous procédons à une analyse similaire en comparant notre signal de PIA au spectre de la transmittance et à ses dérivés première et seconde. Nous observons alors que notre signal reproduit presque parfaitement la dérivée seconde de la transmittance. Ces résultats sont conformes à une signature optique d'effet Stark due à la création de charges à l'interface D/A.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en co-tutelle à l'Université de Montréal et de Paris Sud

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est une exploration de mon processus compositionnel. En tentant de comprendre comment s’organise ma pensée créatrice, j’ai dégagé trois observations : l’organicisme du processus et des œuvres, la notion de mouvement et la relation récursive entre la matière et le compositeur. Ces thèmes m’ont amené à établir un lien épistémologique entre la composition musicale et l’étude des systèmes complexes. Dans ce cadre systémique, j’ai établi que les informations qui motivent mes prises de décision artistiques ont entre elles des ramifications opérationnelles et structurelles qui évoquent une arborescence rhizomatique plutôt qu’une hiérarchie linéaire. La transdisciplinarité propre à la systémique m’a également permis d’introduire des notions provenant d’autres champs de recherche. S’articulant d’emblée avec mon processus compositionnel, ces notions m’ont procuré une vision holistique de ma démarche artistique. Conséquemment, je considère l’acte de composer comme une interaction entre ma conscience et tout ce qui peut émaner de la matière sonore, les deux s’informant l’une et l’autre dans une boucle récursive que je nomme action⟳perception. L’œuvre ainsi produite n’est pas exclusivement tributaire de ma propre volition puisque, au fil du processus, mes décisions opératoires et artistiques sont en grande partie guidées par les propriétés invariantes et les propriétés morphogéniques inhérentes au matériau sonore. Cette approche dynamique n’est possible que si l’interaction avec le compositeur se fait en temps réel, ce que permet la lutherie numérique. Les résultats de mes recherches m’ont guidé dans la composition d’œuvres choisies, autant acousmatiques, mixtes, vidéomusicales que pluridisciplinaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un algorithme permettant de discrétiser les équations aux dérivées partielles (EDP) tout en préservant leurs symétries de Lie est élaboré. Ceci est rendu possible grâce à l'utilisation de dérivées partielles discrètes se transformant comme les dérivées partielles continues sous l'action de groupes de Lie locaux. Dans les applications, beaucoup d'EDP sont invariantes sous l'action de transformations ponctuelles de Lie de dimension infinie qui font partie de ce que l'on désigne comme des pseudo-groupes de Lie. Afin d'étendre la méthode de discrétisation préservant les symétries à ces équations, une discrétisation des pseudo-groupes est proposée. Cette discrétisation a pour effet de transformer les symétries ponctuelles en symétries généralisées dans l'espace discret. Des schémas invariants sont ensuite créés pour un certain nombre d'EDP. Dans tous les cas, des tests numériques montrent que les schémas invariants approximent mieux leur équivalent continu que les différences finies standard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de Maître ès sciences (M.Sc) en Criminologie – Option sécurité intérieure

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel der vorliegenden Arbeit ist die Erhebung der Vorstellungen von Oberstufenschülern bezüglich der Zeitdimension in der Evolution. Daneben geht es um Vorstellungen zu Mechanismen und zu zentralen Ereignissen der Evolution. Einen wichtigen Schwerpunkt stellt der Vergleich der Vorstellungen zwischen deutschen und französischen Oberstufenschülern dar, mit dem Ziel, herauszufinden, ob und in welcher Form sich curriculare Unterschiede bemerkbar machen. In einem Seminar im Wintersemester 2008/2009 zum Thema „Evolutionsbiologie im Unterricht“ waren viele Studierende erstaunt darüber, wie schwer es ihnen fiel, die Zeiträume der Evolution erfahrbar zu machen. Aufgrund des durch diese Diskussion geweckten Interesses, die Vorstellungswelten der Schüler bezüglich der Zeiträume der Evolution zu erfassen, wurde die vorliegende quantitative Studie, die an eine qualitative zum Thema „Altersabhängige Schülervorstellungen zu Massensterbeereignissen in der Evolution. Eine Interviewstudie.“ anknüpft, aufgenommen. Zur Fragebogenentwicklung diente Literatur zur Forschungsmethode, aber auch Gespräche mit der Zielgruppe sowie die Daten der qualitativen Studie. Nach einem Probelauf und der Durchführung der Umfrage mit 158 deutschen und 129 französischen Schülern, wurden die Daten mit dem Computerprogramm SPSS ausgewertet. Selbst Schüler, in deren Unterricht Zeiträume der Evolution Thema war, verfügen nicht über realistische Vorstellungen, wie sich herausstellte, als sie diese benennen oder selbständig auf einem Zeitstrahl einzeichnen sollten. Allerdings hilft eine Veranschaulichung wie Kreisdiagramme bei realitätsnahen Einschätzungen. Gemäß des Lehrplans sind französische Schüler oft mit den Zeiträumen der Evolution im Unterricht konfrontiert. Trotzdem lassen sich bei ihnen keine realistischen Vorstellungen bezüglich der Zeitdimensionen vorfinden. Französische Schüler unterscheiden sich im Antwortverhalten von deutschen Schülern. Fragebögen der französischen Schüler vermitteln den Eindruck einer oberflächlichen Beantwortung. Die Lernenden scheinen sich nicht genau mit den Inhalten auseinandergesetzt zu haben, sie legen oft unreflektiert ihr Wissen oder ihre (teils unrealistischen) Vorstellungen dar. Zudem gehen französische Schüler eher als ihre deutschen Mitschüler den Arbeitsanweisungen nach. Bezüglich der Umstände, wie die Dinosaurier und andere Tiere ausgestorben sind, verfügen deutsche und französische Schüler über realistische Vorstellungen, was unter anderem auf die häufige Repräsentation in den Medien zurückgeführt wird. Überraschend viele Schüler stellen sich in Bezug auf die Menschwerdung verzweigte Stammeslinien vor, wobei finale Vorstellungen nur selten anzutreffen sind. Sie verfügen auch hier meist über realistische Vorstellungen. Es traten in der Untersuchung geschlechtsspezifische Unterschiede auf. Vorstellungen männlicher Schüler sind überwiegend realistischer als die der weiblichen Altersgenossen. Es ist abschließend anzumerken, dass Schüler aufgrund eines großen Interesses am Thema eine intensivere Behandlung des Themas Evolution im Biologieunterricht wünschen. Durch diese Untersuchung kommt es zu einem besseren Verständnis der Vorstellungswelten der Schüler bezüglich den Zeitdimensionen, den Mechanismen und zentralen Ereignissen der Evolution. Die Erkenntnisse können in der Unterrichtsvorbereitung und im Unterricht von Nutzen sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se analiza el Practicum de Pedagog??a en la Facultad de Ciencias de la Educaci??n de la Universidad de Oviedo desde la perspectiva de sus protagonistas (alumnado, tutores y profesorado) con el objetivo de mejorar su calidad formativa, teniendo en cuenta las demandas realizadas por los agentes implicados y ajust??ndolo a los cambios del Sistema Educativo Superior en el contexto europeo. Metodol??gicamente, el trabajo se ha articulado en tres fases: a) exploratoria, donde se analizan los aspectos organizativos del Practicum y las l??neas de investigaci??n sobre el mismo, el proceso de construcci??n del Espacio Europeo de Educaci??n Superior (EEES) y el perfil profesional del pedagogo; b) descriptiva anal??tica, donde se realiza el estudio emp??rico; y c) fase evaluativa, donde se valoran los resultados obtenidos. Se ha optado por una metodolog??a mixta (cualitativa y cuantitativa) complement??ndose los datos cualitativos y cuantitativos obtenidos a trav??s de cuestionarios, documentos escritos, entrevistas en profundidad y grupos de discusi??n. Como conclusi??n general de la investigaci??n se constata que los agentes implicados en el Practicum se muestran conformes con la organizaci??n de esta asignatura, si bien existen aspectos funcionales que son susceptibles de mejora. Otras conclusiones destacables son las siguientes: Se observan bajos grados de reflexi??n y evaluaci??n cr??tica del Practicum por parte de los estudiantes. El ??mbito de intervenci??n pedag??gica en el que los estudiantes realizan sus pr??cticas es muy variado y ambiguo, lo que origina una pluralidad de centros e instituciones de pr??cticas, cada una de las cuales cuenta con caracter??sticas y demandas propias. En este contexto, el Practicum debe ser flexible y adaptarse, en la media de lo posible, a las caracter??sticas y demandas de estas instituciones a fin de que los estudiantes puedan desarrollar aquellas competencias propias de su profesi??n. En l??neas generales, los tutores de pr??cticas de ambas instituciones, Facultad y Centros, son bien valorados por el alumnado y est??n considerados como dos pilares de apoyo importantes en la orientaci??n y para el buen desarrollo de las pr??cticas. Sin embargo, parece que tanto el alumnado como los tutores de los Centros e Instituciones de pr??cticas reclaman la necesidad de una mejora de la interlocuci??n entre los dos agentes b??sicos del Practicum: profesor-tutor de la Facultad y tutor del Centro o Instituci??n. La Gu??a del Practicum, como instrumento de orientaci??n, se ve como una herramienta ??til, pero que admite distintas lecturas, lo que hace que se hayan perfilado diferentes modos de tutorizaci??n y, por tanto, de modelos del Practicum, con lo que ello lleva de desigualdad desde el punto de vista del trabajo del alumnado. Las funciones de los tutores en la evaluaci??n, as?? como los criterios utilizados en el momento de poner las calificaciones a los estudiantes, no son compartidos por la totalidad de los docentes universitarios. Es cierto que en la Gu??a del Practicum se especifican los criterios y funciones de cada uno de los agentes intervinientes en este proceso, pero tambi??n es verdad que cada uno hace su propia interpretaci??n de los mismos, siendo variable el peso que cada docente otorga a los diferentes fuentes de informaci??n en la evaluaci??n. Este hecho provoca cierto malestar entre algunos tutores siendo, adem??s, considerado como arbitrario por el alumnado. Por ??ltimo, se realizan una serie de propuestas metodol??gicas adaptadas al Grado de Pedagog??a para la mejora del Practicum y se plantean las l??neas de investigaci??n abiertas.