338 resultados para cache-oblivious
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
Des décisions médicales en fin de vie sont souvent prises pour des patients inaptes. Nous avons souhaité connaître les argumentations éthiques entourant ces décisions difficiles. Notre objectif était de pouvoir comprendre et apprécier ces lignes d’argumentation. Pour atteindre cet objectif, nous avons répertorié et analysé les lignes argumentatives présentes dans des articles scientifiques, incluant les sections de correspondance et commentaires des journaux savants. Afin d’éviter que les résultats de notre analyse soient trop influencés par les caractéristiques d’un problème médical spécifique, nous avons décidé d’analyser des situations cliniques distinctes. Les sujets spécifiques étudiés sont la non-initiation du traitement antibiotique chez des patients déments souffrant de pneumonie, et l’euthanasie de nouveau-nés lourdement hypothéqués selon le protocole de Groningen. Notre analyse des lignes d’argumentation répertoriées à partir des débats entourant ces sujets spécifiques a révélé des caractéristiques communes. D’abord, les arguments avancés avaient une forte tendance à viser la normativité. Ensuite, les lignes d’argumentation répertoriées étaient principalement axées sur les patients inaptes et excluaient largement les intérêts d’autrui. Nous n’avons trouvé aucune des lignes d’argumentation à visée normative répertoriés concluante. De plus, nous avons trouvé que l’exclusion catégorique d’arguments visant l’intérêt d’autrui des considérations entrainait l’impossibilité d’ évaluer leur validité et de les exclure définitivement de l’argumentaire. Leur présence non-explicite et cachée dans les raisonnements motivant les décisions ne pouvait alors pas être exclue non plus. Pour mieux mettre en relief ces conclusions, nous avons rédigé un commentaire inspiré par les argumentaires avancés dans le contexte de l’arrêt de traitement de Terri Schiavo, patiente en état végétatif persistant. Nous pensons que l’utilisation d’un argumentaire qui viserait davantage à rendre les actions intelligibles, et sans visée normative immédiate, pourrait contribuer à une meilleure compréhension réciproque des participants au débat. Une telle argumentation nous semble aussi mieux adaptée à la complexité et l’unicité de chaque cas. Nous pensons qu’elle pourrait mieux décrire les motivations de tous les acteurs participant à la décision, et ainsi contribuer à une plus grande transparence. Cette transparence pourrait renforcer la confiance dans l’authenticité du débat, et ainsi contribuer à une meilleure légitimation de pratiques cliniques.
Resumo:
Dans ce mémoire, nous proposons des protocoles cryptographiques d'échange de clef, de mise en gage, et de transfert équivoque. Un premier protocole de transfert équivoque, primitive cryptographique universelle pour le calcul multi-parties, s'inspire du protocole d'échange de clef par puzzle de Merkle, et améliore les résultats existants. Puis, nous montrons qu'il est possible de construire ces mêmes primitives cryptographiques sans l'hypothèse des fonctions à sens unique, mais avec le problème 3SUM. Ce problème simple ---dans une liste de n entiers, en trouver trois dont la somme a une certaine valeur--- a une borne inférieure conjecturée de Omega(n^2).
Resumo:
Istanbul est pour Pamuk ce que Paris est pour Baudelaire : une source inépuisable d’inspiration et de spleen. Or, si le poète est davantage conscient de ses états d’âme, le romancier turc le plus lu des deux côtés du Bosphore ne sait pas toujours que tout discours sur le monde extérieur est un discours sur lui-même. Dans un premier temps, il se complait dans l’hüzün, ce sentiment collectif et généralisé de mélancolie, apparemment intrinsèque à la ville et ses ruines, traces tangibles de la décadence d’un grand empire dont les héritiers peinent à se relever. Il n’en est pourtant rien, car, au fur à mesure que Pamuk suit les traces des écrivains et artistes étrangers de passage à Istanbul, il s’aperçoit que l’apparente mélancolie des ruines n’est qu’une strate parmi d’autres, c’est-à-dire glissante, malléable et fluide, tout dépend de l’emplacement et du point de vue de l’observateur, dans une ville palimpseste qui cache dans ses entrailles toutes les altérités. En suivant les traces de l’altérité, Pamuk découvre la nature hétérogène de sa ville et de lui-même et s’aperçoit que la mélancolie collective est fabriquée de toutes pièces par un certain récit socio-politique et une certaine classe sociale. En effet, c’est en traquant les reflets de son double que le romancier prend soudainement conscience du caractère fuyant de sa propre subjectivité, mais aussi de celui du monde et des autres. Si tel est le cas, l’espace urbain qui préoccupe et obsède Pamuk n’est qu’un reflet de son esprit et l’accès à la présence pleine s’avère une illusion. Comme si, l’inquiétante étrangeté de son inconscient, en lui dévoilant le côté insaisissable du monde et du soi, l’encourageait à remettre en cause un certain nombre d’opinions acquises, non seulement à l’intérieur de sa propre culture, mais aussi dans la culture de son double européen. Car si tout est fluide et malléable, il n’y a pas raison de ne pas tout questionner, incluant la tradition et la politique, cette dernière faisant de lui, « une personne bien plus politique, sérieuse et responsable que je ne le suis et ne souhaitais l’être ». Ainsi, Istanbul, souvenir d’une ville questionne le rapport entre la subjectivité et les strates hétérogènes d’Istanbul, pour aboutir à un constat déconstructiviste : tout n’est que bricolage et substitut du sens là où il brille par son absence. S’il brille par son absence, il en est de même loin d’Istanbul, dans une maison périphérique appelée La Maison du Silence à l’intérieur de laquelle les personnages soliloques et par moments muets, se questionnent sur le rapport entre la tradition et la modernité, le centre et la périphérie, l’Occident et l’Orient, sans oublier le caractère destructeur et éphémère du temps, mais aussi de l’espace. Et enfin, Le Musée de l’Innoncence, cette oeuvre magistrale où l’amour joue (en apparence seulement) le rôle principal, n’est en fait que l’étrange aboutissement de la quête obsessessive et narcissique du personnage principal vers un autre espace-temps, quelque part entre la réalité et la fiction, entre l’Est et l’Ouest, entre la tradition et la modernité, cet entre-deux qui campe indéniablement Pamuk parmi les meilleurs romanciers postmodernes de notre époque. Or, pour y parvenir, il faut au préalable un bouc-émissaire qui, dans le cas de Pamuk, représente presque toujours la figure du féminin.
Resumo:
Article
Resumo:
La croissance dramatique du commerce électronique des titres cache un grand potentiel pour les investisseurs, de même que pour l’industrie des valeurs mobilières en général. Prenant en considération ses risques particuliers, les autorités réglementaires vivent un défi important face à l’Internet en tant que nouveau moyen d’investir. Néanmoins, malgré l’évolution technologique, les objectifs fondamentaux et l’approche des autorités réglementaires restent similaires à ce qui se produit présentement. Cet article analyse l’impact de l’Internet sur le commerce des valeurs mobilières en se concentrant sur les problèmes soulevés par l’utilisation de ce nouveau moyen de communication dans le contexte du marché secondaire. Par conséquent, son objectif est de dresser le portrait des plaintes typiques des investisseurs, de même que celui des activités frauduleuses en valeurs mobilières propres au cyberespace. L’auteur fait une synthèse des développements récents en analysant l’approche des autorités réglementaires, les études doctrinales, la jurisprudence et les cas administratifs. L'auteure désire remercier la professeure Raymonde Crête pour ses précieux commentaires et conseils.
Resumo:
La présente étude constitue une analyse comparative de discours qui articulent la problématique de l’héritage coloniale et des réclamations autochtones au Chili et au Canada : des livres de texte de sciences sociales, des discours d’opinion et des discours autochtones. Nous proposons que les similitudes surprenantes qui ont été révélées par les contextes nationaux canadiens et chiliens peuvent être expliquées, en partie, par leur articulation avec le discours globalisé de la modernité/colonialité. D’une part, les textes scolaires et les discours d’opinion font circuler des éléments discursifs de la modernité, tout en reproduisant des formes de savoir et de dire coloniaux. D’autre part, les discours autochtones se ressemblent entre eux dans la mesure où ils interpolent la modernité/colonialité transformant ainsi les termes d’engagement interculturel. Bien que les états canadiens et chiliens renforcent leur engagement à l’égard de la réconciliation avec les Autochtones durant les dernières décennies, les conflits interculturels continuent à se produire en impliquant toujours les mêmes acteurs : l’état, différents peuples autochtones, des entreprises privées, ainsi que des membres de l’élite intellectuelle, politique et patronale. En prenant en compte cette situation, l’objectif de cette thèse vise à mieux comprendre pourquoi ces conflits, loin d’être résolus, continuent à se reproduire. Dans ces deux pays, la problématique des conflits interculturels est fondamentalement mise en rapport avec la question des droits territoriaux et, par conséquent, sont inséparables de la question de l’héritage coloniale des états nationaux canadien et chilien. Pourtant cette dimension coloniale des conflits a tendance à être cachée autant par la rhétorique multiculturelle du discours national que par les polarisations produites par l’opinion publique, lesquelles ont l’habitude d’encadrer la problématique par des notions binaires, telles que « civilisation/barbarie » ou « authenticité/illégitimité ». De plus, on peut considérer l’ouest du Canada et le sud du Chili comme étant des contextes comparables, puisque ceux-ci ont été colonisés avec la base du discours moderne du progrès et de la civilisation, qui a servi à légitimer l’expansion de l’état national au dix-neuvième siècle. Cependant, il n’existe que très peu d’études qui comparent les productions discursives relatives aux relations interculturelles entre Autochtones et non Autochtones dans les contextes canadiens et chiliens, possiblement à cause des différences linguistiques, sociohistoriques et politiques qui paraissent insurmontables.
Resumo:
La demande croissante en carburants, ainsi que les changements climatiques dus au réchauffement planétaire poussent le monde entier à chercher des sources d’énergie capables de produire des combustibles alternatifs aux combustibles fossiles. Durant les dernières années, plusieurs sources potentielles ont été identifiées, les premières à être considérées sont les plantes oléagineuses comme source de biocarburant, cependant l’utilisation de végétaux ou d’huiles végétales ayant un lien avec l’alimentation humaine peut engendrer une hausse des prix des denrées alimentaires, sans oublier les questions éthiques qui s’imposent. De plus, l'usage des huiles non comestibles comme sources de biocarburants, comme l’huile de jatropha, de graines de tabac ou de jojoba, révèle un problème de manque de terre arable ce qui oblige à réduire les terres cultivables de l'industrie agricole et alimentaire au profit des cultures non comestibles. Dans ce contexte, l'utilisation de microorganismes aquatiques, tels que les microalgues comme substrats pour la production de biocarburant semble être une meilleure solution. Les microalgues sont faciles à cultiver et peuvent croitre avec peu ou pas d'entretien. Elles peuvent ainsi se développer dans des eaux douces, saumâtres ou salées de même que dans les terres non cultivables. Le rendement en lipide peut être largement supérieur aux autres sources de biocarburant potentiel, sans oublier qu’elles ne sont pas comestibles et sans aucun impact sur l'industrie alimentaire. De plus, la culture intensive de microalgues pour la production de biodiesel pourrait également jouer un rôle important dans l'atténuation des émissions de CO2. Dans le cache de ce travail, nous avons isolé et identifié morphologiquement des espèces de microalgues natives du Québec, pour ensuite examiner et mesurer leur potentiel de production de lipides (biodiesel). L’échantillonnage fut réalisé dans trois régions différentes du Québec: la région de Montréal, la gaspésie et le nord du Québec, et dans des eaux douces, saumâtres ou salées. Cent souches ont été isolées à partir de la région de Montréal, caractérisées et sélectionnées selon la teneur en lipides et leur élimination des nutriments dans les eaux usées à des températures différentes (10 ± 2°C et 22 ± 2°C). Les espèces ayant une production potentiellement élevée en lipides ont été sélectionnées. L’utilisation des eaux usées, comme milieu de culture, diminue le coût de production du biocarburant et sert en même temps d'outil pour le traitement des eaux usées. Nous avons comparé la biomasse et le rendement en lipides des souches cultivées dans une eau usée par apport à ceux dans un milieu synthétique, pour finalement identifié un certain nombre d'isolats ayant montré une bonne croissance à 10°C, voir une teneur élevée en lipides (allant de 20% à 45% du poids sec) ou une grande capacité d'élimination de nutriment (>97% d'élimination). De plus, nous avons caractérisé l'une des souches intéressantes ayant montré une production en lipides et une biomasse élevée, soit la microalgue Chlorella sp. PCH90. Isolée au Québec, sa phylogénie moléculaire a été établie et les études sur la production de lipides en fonction de la concentration initiale de nitrate, phosphate et chlorure de sodium ont été réalisées en utilisant de la méthodologie des surfaces de réponse. Dans les conditions appropriées, cette microalgue pourrait produire jusqu'à 36% de lipides et croitre à la fois dans un milieu synthétique et un milieu issu d'un flux secondaire de traitement des eaux usées, et cela à 22°C ou 10°C. Ainsi, on peut conclure que cette souche est prometteuse pour poursuivre le développement en tant que productrice potentielle de biocarburants dans des conditions climatiques locales.
Resumo:
Nous introduisons un nouveau modèle de la communication à deux parties dans lequel nous nous intéressons au temps que prennent deux participants à effectuer une tâche à travers un canal avec délai d. Nous établissons quelques bornes supérieures et inférieures et comparons ce nouveau modèle aux modèles de communication classiques et quantiques étudiés dans la littérature. Nous montrons que la complexité de la communication d’une fonction sur un canal avec délai est bornée supérieurement par sa complexité de la communication modulo un facteur multiplicatif d/ lg d. Nous présentons ensuite quelques exemples de fonctions pour lesquelles une stratégie astucieuse se servant du temps mort confère un avantage sur une implémentation naïve d’un protocole de communication optimal en terme de complexité de la communication. Finalement, nous montrons qu’un canal avec délai permet de réaliser un échange de bit cryptographique, mais que, par lui-même, est insuffisant pour réaliser la primitive cryptographique de transfert équivoque.
Resumo:
Objectif de l’étude : Estimer l'association entre la position socioéconomique et l'utilisation des médicaments psychotropes dans cinq populations différentes chez les personnes âgées de 65-74 ans. Méthode : L'échantillon d'étude était composé de 1995 personnes avec des données issues de la première vague de collecte de 2012 faite par l’International Mobility in Aging Study (IMIAS). Il se composait de 401 participants de Saint- Hyacinthe (Québec), 398 de Kingston (Ontario), 394 personnes âgées de Tirana (Albanie), 400 de Manizales (Colombie) et 402 de Natal (Brésil). Tous les médicaments psychotropes consommés pendant les 15 derniers jours ont été identifiés au cours d'une visite à domicile et codés selon la classification ATC. Les médicaments psychotropes inclus étaient les anxiolytiques, sédatifs et hypnotiques (ASH), les antidépresseurs (ADP) et les analgésiques/antiépileptiques/antiParkinson (AEP). Les associations entre la prévalence de la consommation des médicaments psychotropes et l'éducation, le revenu et l’occupation ont été estimés avec des ratios de prévalence (RP) obtenus en ajustant une régression de Poisson et en utilisant le modèle comportemental de Andersen et Newman sur l'utilisation des services de santé et en contrôlant les besoins (les maladies chroniques et la dépression), les facteurs prédisposants (âge et sexe) ainsi que les facteurs facilitants (en utilisant le site d'étude en tant que mandataire des facteurs lié au système de santé et à l'environnement). Résultats : Les personnes âgées vivant dans les sites canadiens consommaient plus de médicaments psychotropes que celles vivant dans les sites à l'extérieur du Canada, elles consommaient moins d’ASH à Manizales et ne consommaient pas d’ADP en Albanie. Les inégalités socioéconomiques varient selon les sites. Dans les sites canadiens, le faible niveau socioéconomique était associée à une plus grande consommation de médicaments psychotropes : en particulier, les personnes à faible niveau d’instruction consommaient plus d’antidépresseurs et celles à faible revenu consommaient plus d’AEP. Dans les sites de recherche d'Amérique latine, les personnes âgées de niveau d’instruction et de revenu élevé consommaient plus antidépresseurs et celles avec des occupations manuelles consommaient plus d’analgésiques/antiépileptiques/antiParkinson. À Tirana (Albanie), il n'y avait pas de consommation de médicaments antidépresseurs, mais la consommation d’ASH était plus élevée chez les personnes à faible revenu. Les analyses multivariées du modèle final cache les différences entre les sites qui se sont révélées dans les analyses spécifiques au niveau du Canada, de l’Amérique Latine et d’Albanie. Conclusion : Il existe des inégalités socioéconomiques liées à la consommation des médicaments psychotropes chez les personnes âgées. Ces inégalités varient selon les sites. L'utilisation des médicaments psychotropes était plus fréquente chez les personnes les moins instruites et les plus pauvres au Canada alors que l'inverse était vrai dans les sites d'Amérique latine. L'Albanie était caractérisée par une absence de consommation d'antidépresseurs alors qu’il y avait une plus grande utilisation des anxiolytiques, sédatifs et hypnotiques dans les groupes à faible revenu.
Resumo:
Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .
Resumo:
“A Shine of Truth in the ‘universal delusional context of reification’ (Theodor W. Adorno)” comprend sept chapitres, un prologue et un épilogue. Chaque partie se construit à deux niveaux : (1) à partir des liens qui se tissent entre les phrases contiguës ; et (2) à partir des liens qui se tissent entre les phrases non contiguës. Les incipit des paragraphes forment l’argument principal de la thèse. Le sujet de la thèse, Schein (apparence, illusion, clarté) est abordé de manière non formaliste, c’est à dire, de manière que la forme donne d’elle-même une idée de la chose : illusion comme contradiction imposée. Bien que le sujet de la thèse soit l’illusion, son but est la vérité. Le Chapitre I présente une dialectique de perspectives (celles de Marx, de Lukács, de Hegel, de Horkheimer et d'Adorno) pour arriver à un critère de vérité, compte tenu du contexte d’aveuglement universel de la réification ; c’est la détermination de la dissolution de l’apparence. Le Chapitre II présente le concept d’apparence esthétique—une apparence réversible qui s’oppose à l’apparence sociale générée par l’industrie de la culture. Le Chapitre III cherche à savoir si la vérité en philosophie et la vérité en art sont deux genres distincts de vérités. Le Chapitre IV détermine si l’appel à la vérité comme immédiateté de l’expression, fait par le mouvement expressionniste du 20e siècle, est nouveau, jugé à l’aune d’un important antécédent à l’expressionisme musical : « Der Dichter spricht » de Robert Schumann. Le Chapitre V se penche sur la question à savoir si le montage inorganique est plus avancé que l’expressionisme. Le Chapitre VI reprend là où Peter Bürger clôt son essai Theorie de l’avant-garde : ce chapitre cherche à savoir à quel point l’oeuvre d’art après le Dada et le Surréalisme correspond au modèle hégélien de la « prose ». Le Chapitre VII soutient que Dichterliebe, op. 48, (1840), est une oeuvre d’art vraie. Trois conclusions résultent de cette analyse musicale détaillée : (1) en exploitant, dans certains passages, une ambigüité dans les règles de l’harmonie qui fait en sorte tous les douze tons sont admis dans l’harmonie, l’Opus 48 anticipe sur Schoenberg—tout en restant une musique tonale ; (2) l’Opus 48, no 1 cache une tonalité secrète : à l'oeil, sa tonalité est soit la majeur, soit fa-dièse mineur, mais une nouvelle analyse dans la napolitaine de do-dièse majeur est proposée ici ; (3) une modulation passagère à la napolitaine dans l’Opus 48, no 12 contient l’autre « moitié » de la cadence interrompue à la fin de l’Opus 48, no 1. Considérés à la lumière de la société fausse, l’Allemagne des années 1930, ces trois aspects anti-organiques témoignent d’une conscience avancée. La seule praxis de vie qu’apporte l’art, selon Adorno, est la remémoration. Mais l’effet social ultime de garder la souffrance vécue en souvenir est non négligeable : l’émancipation universelle.
Resumo:
En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.
Resumo:
Simuler efficacement l'éclairage global est l'un des problèmes ouverts les plus importants en infographie. Calculer avec précision les effets de l'éclairage indirect, causés par des rebonds secondaires de la lumière sur des surfaces d'une scène 3D, est généralement un processus coûteux et souvent résolu en utilisant des algorithmes tels que le path tracing ou photon mapping. Ces techniquesrésolvent numériquement l'équation du rendu en utilisant un lancer de rayons Monte Carlo. Ward et al. ont proposé une technique nommée irradiance caching afin d'accélérer les techniques précédentes lors du calcul de la composante indirecte de l'éclairage global sur les surfaces diffuses. Krivanek a étendu l'approche de Ward et Heckbert pour traiter le cas plus complexe des surfaces spéculaires, en introduisant une approche nommée radiance caching. Jarosz et al. et Schwarzhaupt et al. ont proposé un modèle utilisant le hessien et l'information de visibilité pour raffiner le positionnement des points de la cache dans la scène, raffiner de manière significative la qualité et la performance des approches précédentes. Dans ce mémoire, nous avons étendu les approches introduites dans les travaux précédents au problème du radiance caching pour améliorer le positionnement des éléments de la cache. Nous avons aussi découvert un problème important négligé dans les travaux précédents en raison du choix des scènes de test. Nous avons fait une étude préliminaire sur ce problème et nous avons trouvé deux solutions potentielles qui méritent une recherche plus approfondie.
Resumo:
La dernière des treize lettres familières qui forment le premier volet des Epistres familieres et invectives (1539) reste à ce jour la missive la plus difficile à interpréter du recueil d’Hélisenne de Crenne. Son caractère cryptique, la voix masculine qu’y fait entendre l’épistolière et la présence d’allusions amoureuses assurent un caractère singulier à ce texte dont le fonctionnement peut se comprendre — c’est l’hypothèse que propose cet article — comme le résultat d’un travestissement identitaire (une femme s’y exprime à la manière d’un homme), doublé d’un travestissement générique (la lettre familière cache une lettre d’amour). L’expression directe du désir amoureux ne semble possible, dans le recueil, que par ce jeu de travestissements où la rhétorique masque et dévoile tout à la fois, en établissant entre épistolière et destinataire une familiarité affective dont l’existence ne peut être révélée au lecteur que sur le mode du simulacre.