975 resultados para infinite horizon
Resumo:
L’industrie forestière est un secteur qui, même s’il est en déclin, se trouve au cœur du débat sur la mondialisation et le développement durable. Pour de nombreux pays tels que le Canada, la Suède et le Chili, les objectifs sont de maintenir un secteur florissant sans nuire à l’environnement et en réalisant le caractère fini des ressources. Il devient important d’être compétitif et d’exploiter de manière efficace les territoires forestiers, de la récolte jusqu’à la fabrication des produits aux usines, en passant par le transport, dont les coûts augmentent rapidement. L’objectif de ce mémoire est de développer un modèle de planification tactique/opérationnelle qui permet d’ordonnancer les activités pour une année de récolte de façon à satisfaire les demandes des usines, sans perdre de vue le transport des quantités récoltées et la gestion des inventaires en usine. L’année se divise en 26 périodes de deux semaines. Nous cherchons à obtenir les horaires et l’affectation des équipes de récolte aux blocs de coupe pour une année. Le modèle mathématique développé est un problème linéaire mixte en nombres entiers dont la structure est basée sur chaque étape de la chaine d’approvisionnement forestière. Nous choisissons de le résoudre par une méthode exacte, le branch-and-bound. Nous avons pu évaluer combien la résolution directe de notre problème de planification était difficile pour les instances avec un grand nombre de périodes. Cependant l’approche des horizons roulants s’est avérée fructueuse. Grâce à elle en une journée, il est possible de planifier les activités de récolte des blocs pour l’année entière (26 périodes).
Resumo:
Il est peu de notions aussi vastes que celle du non-savoir, mais le flou du caractère nécessairement négatif de sa définition s’accompagne tout de même du sentiment que la source de ce qui ne peut qu’être déterminé négativement par la pensée (non, cela n’est pas le savoir) ne peut qu’être positive. Notion à l’applicabilité infinie, parce qu’en elle vient s’abîmer tout ce qui ne peut tenir dans l’espace de la maîtrise relative à ce dont on peut dire : je sais de quoi il s’agit. Est non-savoir tout ce qui se rapporte au bouillonnement pulsionnel de la vie et à l’échéance fatale de la mort. Ce qui pousse l’homme au meurtre, au génocide, à la guerre et à la violence révolutionnaire se confond avec un contenu affectif et identitaire qui ne peut être ramené au savoir sans laisser de reste. Mais tenter de comprendre ce qui échappe à l’entendement est cela même qui relance sans cesse la réflexion comprise comme cœur du savoir. Le savoir se montre ainsi sous une extrême dépendance face à son Autre. À la lumière de cette hypothèse devant beaucoup aux découvertes de la psychanalyse, le présent mémoire s’est donné pour objectif de jeter un regard frais sur quelques grandes tensions sociopolitiques de l’Histoire; mais il a d’abord fallu évaluer philosophiquement la possibilité d’un concept de non-savoir. Des champs identitaires majeurs — révolutions totalitaires ou démocratiques, bouleversements ou synergies culturelles — sont ainsi analysés sous l’angle d’une économie pulsionnelle qui s’inscrit dans une interaction perpétuelle avec ce qui s’ébauche ici comme une économie du rapport entre non-savoir et savoir. Est ainsi produite une esquisse des rapports possibles entre la vie pulsionnelle de l’homme, le savoir institutionnel et le monde sociopolitique.
Resumo:
Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.
Resumo:
L’électrofilage est une technique permettant de fabriquer des fibres polymériques dont le diamètre varie entre quelques nanomètres et quelques microns. Ces fibres ont donc un rapport surface/volume très élevé. Les fibres électrofilées pourraient trouver des applications dans le relargage de médicaments et le génie tissulaire, comme membranes et capteurs chimiques, ou dans les nanocomposites et dispositifs électroniques. L’électrofilage était initialement utilisé pour préparer des toiles de fibres désordonnées, mais il est maintenant possible d’aligner les fibres par l’usage de collecteurs spéciaux. Cependant, il est important de contrôler non seulement l’alignement macroscopique des fibres mais aussi leur orientation au niveau moléculaire puisque l’orientation influence les propriétés mécaniques, optiques et électriques des polymères. Les complexes moléculaires apparaissent comme une cible de choix pour produire des nanofibres fortement orientées. Dans les complexes d’inclusion d’urée, les chaînes polymères sont empilées dans des canaux unidimensionnels construits à partir d’un réseau tridimensionnel de molécules d’urée liées par des ponts hydrogène. Ainsi, les chaînes polymère sonts très allongées à l’échelle moléculaire. Des nanofibres du complexe PEO-urée ont été préparées pour la première fois par électrofilage de suspensions et de solutions. Tel qu’attendu, une orientation moléculaire inhabituellement élevée a été observée dans ces fibres. De tels complexes orientés pourraient être utilisés à la fois dans des études fondamentales et dans la préparation de matériaux hiérarchiquement structurés. La méthode d’électrofilage peut parfois aussi être utilisée pour préparer des matériaux polymériques métastables qui ne peuvent pas être préparés par des méthodes conventionnelles. Ici, l’électrofilage a été utilisé pour préparer des fibres des complexes stables (α) et "métastables" (β) entre le PEO et l’urée. La caractérisation du complexe β, qui était mal connu, révèle un rapport PEO:urée de 12:8 appartenant au système orthorhombique avec a = 1.907 nm, b = 0.862 nm et c = 0.773 nm. Les chaînes de PEO sont orientées selon l’axe de la fibre. Leur conformation est significativement affectée par les ponts hydrogène. Une structure en couches a été suggérée pour la forme β, plutôt que la structure conventionnelle en canaux adoptée par la forme α. Nos résultats indiquent que le complexe β est thermodynamiquement stable avant sa fonte et peut se transformer en forme α et en PEO liquide par un processus de fonte et recristallisation à 89 ºC. Ceci va dans le sens contraire aux observations faites avec le complexe β obtenu par trempe du complexe α fondu. En effet, le complexe β ainsi obtenu est métastable et contient des cristaux d’urée. Il peut subir une transition de phases cinétique solide-solide pour produire du complexe α dans une vaste gamme de températures. Cette transition est induite par un changement de conformation du PEO et par la formation de ponts hydrogène intermoléculaires entre l’urée et le PEO. Le diagramme de phases du système PEO-urée a été tracé sur toute la gamme de compositions, ce qui a permis d’interpréter la formation de plusieurs mélanges qui ne sont pas à l’équilibre mais qui sont été observés expérimentalement. La structure et le diagramme de phases du complexe PEO-thiourée, qui est aussi un complexe très mal connu, ont été étudiés en détail. Un rapport molaire PEO :thiourée de 3:2 a été déduit pour le complexe, et une cellule monoclinique avec a = 0.915 nm, b = 1.888 nm, c = 0.825 nm et β = 92.35º a été déterminée. Comme pour le complexe PEO-urée de forme β, une structure en couches a été suggérée pour le complexe PEO-thiourée, dans laquelle les molécules de thiourée seraient disposées en rubans intercalés entre deux couches de PEO. Cette structure en couches pourrait expliquer la température de fusion beaucoup plus faible des complexes PEO-thiourée (110 ºC) et PEO-urée de forme β (89 ºC) en comparaison aux structures en canaux du complexe PEO-urée de forme α (143 ºC).
Resumo:
Cette thèse aborde la question de la valeur de la littérature contemporaine, en posant la question de la puissance de la création langagière. Dans la mesure où l’humanisme tombe en désuétude avec la fin de l’hégémonie médiatique de l’imprimerie, et où le capitalisme contemporain assigne à la culture un rôle économique et récréatif, la « littérature » se retrouve sans « critère final » pour penser sa puissance non économique. En d’autres termes, quels sont les effets intermédiaux de la création langagière livresque qui survivent à l’humanisme tout en résistant à la communication récréative? Il en va bien sûr de la nature même de la « création littéraire ». Le premier chapitre explore les liens entre l’humanisme et l’imprimerie à partir d’un concept de fongibilité, et introduit un ensemble de concepts clé. Le deuxième chapitre présente un autre ensemble de concepts (dont le geste vertical), cette fois pour penser le langage en termes de pouvoir et de puissance. Le troisième chapitre aborde le « capitalisme civilisationnel » en termes intermédiaux. On y réfléchit sur la saturation, la séparation et la fenestration, notamment à partir d’une éthique du jeu. Le quatrième chapitre traite de la question de la plasticité. Enfin, les cinquième et sixième chapitres forment deux exemples – des exemples de puissance – à partir des oeuvres de Valère Novarina (Lumières du corps) et de David Foster Wallace (Infinite Jest). Le corpus théorique se compose d’éléments puisés d’une part dans l’oeuvre de Walter Benjamin et de Giorgio Agamben, selon un matérialisme messianique, et d’autre part dans celle de Gilles Deleuze. Certaines considérations sont également tenues sous l’influence de Michel Foucault et de Ludwig Wittgenstein.
Resumo:
Plusieurs critiques ont été adressées à Lévinas quant à la difficulté de conjuguer le caractère infini de la responsabilité éthique, qu’il présente comme condition de possibilité de l’expérience, et la mesure de l’obligation envers autrui qui naît inévitablement dans le politique. En effet, la distinction semble si prononcée entre l’obligation éthique transcendante envers l’autre et la logique politique, univers de sens associé à l’ontologie et présenté comme violent et immanent, que l’éthique peut apparaître compromise dès qu’elle est exprimée dans un contexte social. En réponse à ces difficultés, ce mémoire vise à démontrer qu’en dépit de leur opposition fondamentale, l’ordre éthique et l’ordre ontologico-politique font partie d’une structure unique. À la lumière de l’entrée en scène du tiers et de la nécessité de justice qui l’accompagne, l’existence d’un carrefour entre ces couches de significations distinctes, mais interdépendante, peut être illustrée. De fait, la justice constitue un concept amphibologique chez Lévinas qui, participant à la fois de l’éthique et du politique, permet de mettre au jour l’ancrage a priori social de l’éthique. Cette étude présentera des réflexions critiques reliées à la discipline juridique et aux droits de l’homme, qui démontreront comment la pensée de Lévinas non seulement peut, mais doit s’ouvrir à une expression sociale.
Resumo:
On présente une nouvelle approche de simulation pour la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine, pour des modèles de risque déterminés par des subordinateurs de Lévy. Cette approche s'inspire de la décomposition "Ladder height" pour la probabilité de ruine dans le Modèle Classique. Ce modèle, déterminé par un processus de Poisson composé, est un cas particulier du modèle plus général déterminé par un subordinateur, pour lequel la décomposition "Ladder height" de la probabilité de ruine s'applique aussi. La Fonction de Pénalité Escomptée, encore appelée Fonction Gerber-Shiu (Fonction GS), a apporté une approche unificatrice dans l'étude des quantités liées à l'événement de la ruine été introduite. La probabilité de ruine et la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine sont des cas particuliers de la Fonction GS. On retrouve, dans la littérature, des expressions pour exprimer ces deux quantités, mais elles sont difficilement exploitables de par leurs formes de séries infinies de convolutions sans formes analytiques fermées. Cependant, puisqu'elles sont dérivées de la Fonction GS, les expressions pour les deux quantités partagent une certaine ressemblance qui nous permet de nous inspirer de la décomposition "Ladder height" de la probabilité de ruine pour dériver une approche de simulation pour cette fonction de densité conjointe. On présente une introduction détaillée des modèles de risque que nous étudions dans ce mémoire et pour lesquels il est possible de réaliser la simulation. Afin de motiver ce travail, on introduit brièvement le vaste domaine des mesures de risque, afin d'en calculer quelques unes pour ces modèles de risque. Ce travail contribue à une meilleure compréhension du comportement des modèles de risques déterminés par des subordinateurs face à l'éventualité de la ruine, puisqu'il apporte un point de vue numérique absent de la littérature.
Resumo:
Nous avons investigué, via les simulations de Monte Carlo, les propriétés non-perturbatives du modèle de Higgs abélien en 2+1 dimensions sans et avec le terme de Chern-Simons dans la phase de symétrie brisée, en termes de ses excitations topologiques: vortex et anti-vortex. Le but du présent travail est de rechercher les phases possibles du système dans ce secteur et d'étudier l'effet du terme de Chern-Simons sur le potentiel de confinement induit par les charges externes trouvé par Samuel. Nous avons formulé une description sur réseau du modèle effectif en utilisant une tesselation tétraédrique de l'espace tridimensionnel Euclidien pour générer des boucles de vortex fermées. En présence du terme de Chern-Simons, dans une configuration donnée, nous avons formulé et calculé le nombre d'enlacement entre les différentes boucles de vortex fermées. Nous avons analysé les propriétés du vide et calculé les valeurs moyennes de la boucle de Wilson, de la boucle de Polyakov à différentes températures et de la boucle de 't Hooft en présence du terme de Chern-Simons. En absence du terme de Chern-Simons, en variant la masse des boucles de vortex, nous avons trouvé deux phases distinctes dans le secteur de la symétrie brisée, la phase de Higgs habituelle et une autre phase caractérisée par l'apparition de boucles infinies. D'autre part, nous avons trouvé que la force entre les charges externes est écrantée correpondant à la loi périmètre pour la boucle de Wilson impliquant qu'il n'y a pas de confinement. Cependant, après la transition, nous avons trouvé qu'il existe toujours une portion de charges externes écrantée, mais qu'après une charge critique, l'énergie libre diverge. En présence du terme de Chern-Simons, et dans la limite de constante de couplage faible de Chern-Simons nous avons trouvé que les comportements de la boucle de Wilson et de la boucle de 't Hooft ne changent pas correspondants à une loi périmètre, impliquant qu'il n'y a pas de confinement. De plus, le terme de Chern-Simons ne contribue pas à la boucle de Wilson.
Resumo:
La présente étude porte sur l’évaluation d’une méthode d’acquisition de la solution de sol présente à l’interface sol-racine, dans la rhizosphère. Cette interface constitue le lieu privilégié de prise en charge par les plantes des contaminants, tels que les métaux traces. Comme les plantes acquièrent ces éléments à partir de la phase liquide, la solution de sol de la rhizosphère est une composante clé pour déterminer la fraction de métaux traces biodisponibles. La microlysimétrie est la méthode in situ la plus appropriée pour aborder les difficultés liées à l’échelle microscopique de la rhizosphère. Ainsi, dans les études sur la biodisponibilité des métaux traces au niveau de la rhizosphère, les microlysimètres (Rhizon©) gagnent en popularité sans, toutefois, avoir fait l’objet d’études exhaustives. L’objectif de cette étude est donc d’évaluer la capacité de ces microlysimètres à préserver l’intégrité chimique de la solution, tout en optimisant leur utilisation. Pour ce faire, les microlysimètres ont été soumis à une série d’expériences en présence de solutions et de sols, où la quantité de solution prélevée et le comportement des métaux traces (Cd, Cu, Ni, Pb, Zn) ont été étudiés. Les résultats montrent que les microlysimètres fonctionnent de façon optimale lorsque le contenu en eau du sol est au-dessus de la capacité au champ et lorsqu’il y a peu de matière organique et d’argile. Les sols sableux ayant un faible contenu en C organique reproduisent mieux le volume prélevé et la solution sous la capacité au champ peut être récoltée. L’utilisation des microlysimètres dans ces sols est donc optimale. Dans les essais en solution, les microlysimètres ont atteint un équilibre avec la solution après 10 h de prélèvement. En respectant ce délai et les conditions optimales préalablement établies (pH acide et COD élevé), les microlysimètres préservent la composition chimique de la solution. Dans les essais en sol, cet équilibre n’a pas été atteint après dix jours et huit prélèvements. Le contenu en matière organique et l’activité microbienne semblent responsables de la modification des concentrations en métaux au cours de ces prélèvements, notamment, dans l’horizon FH où les microlysimètres performent très mal. En revanche, dans l’horizon B, les concentrations tendent à se stabiliser vers la fin de la série de prélèvements en se rapprochant des valeurs de référence. Bien que des valeurs plus élevées s’observent pour les microlysimètres, leurs concentrations en métaux sont comparables à celles des méthodes de référence (extrait à l’eau, lysimètres de terrain avec et sans tension). En somme, les microlysimètres se comportent généralement mieux dans l’horizon B. Même si leur utilisation est plus optimale dans un sol sableux, cet horizon est privilégié pour de futures études sur le terrain avec les microlysimètres.
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Cette thèse pense la place des figures littéraires (le Cantique des cantiques, Kierkegaard, Hofmannsthal) et cinématographiques (Matador d'Almodóvar) de la séduction dans la relation entre le soi et l'autre. Elle interroge le rapport au sacré et à la transcendance que pose l'écriture de la séduction. Dans le premier chapitre, les frontières établies entre littérature et philosophie (personnage conceptuel, figure esthétique) sont interrogées à travers les figures de la séduction. À ces figures sont associées les figures de matadors, qui permettent de penser la violence extrême de la séduction et l'instant au cours duquel la conscience ne peut plus se dédoubler. Le deuxième chapitre est une réflexion, à partir des figures du maître et de l'esclave, sur le désir et la conscience de soi et de l'autre dans la séduction. Les figures tauromachiques exposent le sacrifice à l'œuvre dans la séduction. Le dialogue est ici pensé au sein de la séduction, pour saisir la place de celle-ci dans la formation de la pensée. Le troisième chapitre développe le rapport entre le soi, l'autre et le monde qu'établit la séduction. Le dandysme permet d'approcher la tension entre la matière et l'esprit que posent la séduction et son écriture. Le dialogue à l'œuvre dans la séduction est présenté comme un espace de formation. La séduction est envisagée comme séduction éthique, quête de la bonne distance, exercice spirituel. La syncope, le duende, l'extase sont décrits comme des états de conscience où la distance entre le soi et le monde, le soi et l'autre, l'esprit et la matière s'abolit. À partir de ces états, l'ouverture vers l'infini et vers la transcendance que peut poser la séduction est exposée. Dans le quatrième chapitre, la séduction est pensée comme le parfum du sacré, à travers une lecture du Cantique des cantiques. Par la séduction, l'importance du corps dans le sacré est soulignée. La place du secret et de la foi dans la séduction, dans le sacré et dans le littéraire est étudiée. La séduction permet une plongée érotique dans le monde et dans le réel, par les figures et par les images qu'elle déploie. Le savoir de la séduction est un parcours, savoir du corps et de l'esprit.
Resumo:
La rencontre tant attendue entre Hans-Georg Gadamer et Jacques Derrida a finalement eu lieu au Goethe-Institut de Paris en 1981. Le dialogue espéré entre l'herméneutique et la déconstruction s'y est cependant à peine engagé. Selon la plupart des commentateurs, la conférence qu'y a prononcée Derrida n'était d'ailleurs même pas liée à la rencontre. Nous ne partageons pas cette opinion. Derrida a choisi de critiquer l'interprétation heideggérienne de Nietzsche, alors que Gadamer venait de faire un plaidoyer inconditionnel en sa faveur. De plus, la structure axiomatique de l'unité et de la totalité que Derrida met en question dans sa conférence est la même que celle qu'il a ailleurs attribuée à l'herméneutique. En mettant en doute la primauté de cette structure, il s'en prenait donc aux fondements de l'herméneutique telle qu'il la concevait. Enfin, sa conférence a laissé entrevoir une conception de l'interprétation dont l'absence d'horizon de vérité exclut l'herméneutique.
Resumo:
Dans cette thèse, nous proposons de nouveaux résultats de systèmes superintégrables séparables en coordonnées polaires. Dans un premier temps, nous présentons une classification complète de tous les systèmes superintégrables séparables en coordonnées polaires qui admettent une intégrale du mouvement d'ordre trois. Des potentiels s'exprimant en terme de la sixième transcendante de Painlevé et de la fonction elliptique de Weierstrass sont présentés. Ensuite, nous introduisons une famille infinie de systèmes classiques et quantiques intégrables et exactement résolubles en coordonnées polaires. Cette famille s'exprime en terme d'un paramètre k. Le spectre d'énergie et les fonctions d'onde des systèmes quantiques sont présentés. Une conjecture postulant la superintégrabilité de ces systèmes est formulée et est vérifiée pour k=1,2,3,4. L'ordre des intégrales du mouvement proposées est 2k où k ∈ ℕ. La structure algébrique de la famille de systèmes quantiques est formulée en terme d'une algèbre cachée où le nombre de générateurs dépend du paramètre k. Une généralisation quasi-exactement résoluble et intégrable de la famille de potentiels est proposée. Finalement, les trajectoires classiques de la famille de systèmes sont calculées pour tous les cas rationnels k ∈ ℚ. Celles-ci s'expriment en terme des polynômes de Chebyshev. Les courbes associées aux trajectoires sont présentées pour les premiers cas k=1, 2, 3, 4, 1/2, 1/3 et 3/2 et les trajectoires bornées sont fermées et périodiques dans l'espace des phases. Ainsi, les résultats obtenus viennent renforcer la possible véracité de la conjecture.
Resumo:
Cette thèse porte sur les problèmes de tournées de véhicules avec fenêtres de temps où un gain est associé à chaque client et où l'objectif est de maximiser la somme des gains recueillis moins les coûts de transport. De plus, un même véhicule peut effectuer plusieurs tournées durant l'horizon de planification. Ce problème a été relativement peu étudié en dépit de son importance en pratique. Par exemple, dans le domaine de la livraison de denrées périssables, plusieurs tournées de courte durée doivent être combinées afin de former des journées complètes de travail. Nous croyons que ce type de problème aura une importance de plus en plus grande dans le futur avec l'avènement du commerce électronique, comme les épiceries électroniques, où les clients peuvent commander des produits par internet pour la livraison à domicile. Dans le premier chapitre de cette thèse, nous présentons d'abord une revue de la littérature consacrée aux problèmes de tournées de véhicules avec gains ainsi qu'aux problèmes permettant une réutilisation des véhicules. Nous présentons les méthodologies générales adoptées pour les résoudre, soit les méthodes exactes, les méthodes heuristiques et les méta-heuristiques. Nous discutons enfin des problèmes de tournées dynamiques où certaines données sur le problème ne sont pas connues à l'avance. Dans le second chapitre, nous décrivons un algorithme exact pour résoudre un problème de tournées avec fenêtres de temps et réutilisation de véhicules où l'objectif premier est de maximiser le nombre de clients desservis. Pour ce faire, le problème est modélisé comme un problème de tournées avec gains. L'algorithme exact est basé sur une méthode de génération de colonnes couplée avec un algorithme de plus court chemin élémentaire avec contraintes de ressources. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. Le troisième chapitre propose donc une méthode de recherche adaptative à grand voisinage qui exploite les différents niveaux hiérarchiques du problème (soit les journées complètes de travail des véhicules, les routes qui composent ces journées et les clients qui composent les routes). Dans le quatrième chapitre, qui traite du cas dynamique, une stratégie d'acceptation et de refus des nouvelles requêtes de service est proposée, basée sur une anticipation des requêtes à venir. L'approche repose sur la génération de scénarios pour différentes réalisations possibles des requêtes futures. Le coût d'opportunité de servir une nouvelle requête est basé sur une évaluation des scénarios avec et sans cette nouvelle requête. Enfin, le dernier chapitre résume les contributions de cette thèse et propose quelques avenues de recherche future.
Resumo:
Centrée sur une réflexion des droits de l’homme à partir de l’expérience historique de la Shoah, la thèse porte sur l’enjeu fondamental du statut du religieux en modernité. Trois parties la composent, correspondant au génocide, à la modernité politique et à l’histoire du Salut : la première propose une interprétation de l’Holocauste en ayant recours aux catégories empruntées à l’historiographie, à la réflexion philosophique et à la tradition théologique. Elle rend compte de deux lectures concurrentes des Lumières, du renversement de la théologie chrétienne du judaïsme au XXe siècle, de la généalogie idéologique du nazisme ainsi que du contexte explosif de l’entre-deux-guerres. La seconde partie de la thèse avance une théorie des trois modernités, selon laquelle les États-Unis, la France et Vatican II représenteraient des interprétations divergentes et rivales des droits. Enfin, la troisième partie reprend les deux précédentes thématiques de la Shoah et de la modernité, mais à la lumière de la Révélation, notamment de l’Incarnation et de la Croix. La Révélation est présentée comme un double dévoilement simultané de l’identité de Dieu et de la dignité humaine – comme un jeu de miroir où la définition de l’homme est indissociable de celle de la divinité. En provoquant l’effondrement de la Chrétienté, la sécularisation aurait créé un vide existentiel dans lequel se serait engouffré le nazisme comme religion politique et idéologie néo-païenne de substitution. Négation de l'élection d'Israël, du Décalogue et de l’anthropologie biblique, l’entreprise nazie d’anéantissement est comprise comme la volonté d’éradication de la Transcendance et du patrimoine spirituel judéo-chrétien, la liquidation du Dieu juif par l’élimination du peuple juif. Le judéocide pourrait dès lors être qualifié de «moment dans l’histoire du Salut» en ce sens qu’il serait porteur d’un message moral en lien avec le contenu de la Révélation qui interpellerait avec force et urgence la conscience moderne. L’Holocauste constituerait ainsi un kairos, une occasion à saisir pour une critique lucide des apories de la modernité issue des Lumières et pour un renouvellement de la pensée théologico-politique, une invitation à une refondation transcendante des droits fondamentaux, dont la liberté religieuse ferait figure de matrice fondationnelle. La Shoah apporterait alors une réponse au rôle que la Transcendance pourrait jouer dans les sociétés modernes. Mémorial de Sang refondateur des droits de la personne, l'Holocauste rendrait témoignage, il lancerait une mise en garde et poserait les conditions nécessaires d'un enracinement biblique à la préservation de la dignité de l’être humain. Aux Six Millions de Défigurés correspondrait la Création de l'Homme du Sixième Jour. En conclusion, un triangle synergique nourricier est soutenu par l’extermination hitlérienne (1941-1945), la Déclaration universelle des droits de l’homme (1948) et le Concile Vatican II (1962-1965) comme les trois piliers d’une nouvelle modernité, située au-delà des paradigmes américain (1776) et français (1789). La Shoah inaugurerait et poserait ainsi les fondements d'un nouvel horizon civilisationnel; elle pointerait vers un nouveau départ possible pour le projet de la modernité. L'expérience génocidaire n'invaliderait pas la modernité, elle ne la discréditerait pas, mais la relancerait sur des bases spirituelles nouvelles. Cette refondation des droits fondamentaux offrirait alors une voie de sortie et de conciliation à la crise historique qui opposait depuis près de deux siècles en Europe les droits de l'homme et la Transcendance, Dieu et la liberté – modèle susceptible d’inspirer des civilisations non occidentales en quête d’une modernité respectueuse de leur altérité culturelle et compatible avec la foi religieuse.