981 resultados para Linguistique informatique
Resumo:
L’ingénierie dirigée par les modèles (IDM) est un paradigme d’ingénierie du logiciel bien établi, qui préconise l’utilisation de modèles comme artéfacts de premier ordre dans les activités de développement et de maintenance du logiciel. La manipulation de plusieurs modèles durant le cycle de vie du logiciel motive l’usage de transformations de modèles (TM) afin d’automatiser les opérations de génération et de mise à jour des modèles lorsque cela est possible. L’écriture de transformations de modèles demeure cependant une tâche ardue, qui requiert à la fois beaucoup de connaissances et d’efforts, remettant ainsi en question les avantages apportés par l’IDM. Afin de faire face à cette problématique, de nombreux travaux de recherche se sont intéressés à l’automatisation des TM. L’apprentissage de transformations de modèles par l’exemple (TMPE) constitue, à cet égard, une approche prometteuse. La TMPE a pour objectif d’apprendre des programmes de transformation de modèles à partir d’un ensemble de paires de modèles sources et cibles fournis en guise d’exemples. Dans ce travail, nous proposons un processus d’apprentissage de transformations de modèles par l’exemple. Ce dernier vise à apprendre des transformations de modèles complexes en s’attaquant à trois exigences constatées, à savoir, l’exploration du contexte dans le modèle source, la vérification de valeurs d’attributs sources et la dérivation d’attributs cibles complexes. Nous validons notre approche de manière expérimentale sur 7 cas de transformations de modèles. Trois des sept transformations apprises permettent d’obtenir des modèles cibles parfaits. De plus, une précision et un rappel supérieurs à 90% sont enregistrés au niveau des modèles cibles obtenus par les quatre transformations restantes.
Resumo:
À l'aube des années 1930, l'Alsace partage un passé trouble avec la France et l'Allemagne. Alors que la région est redevenue française après la Première Guerre mondiale en 1919, Paris éprouve de la difficulté à la réintégrer à la République, parce qu'il ne comprend pas que les quarante ans de l'Alsace au sein du Reich allemand ont bouleversé la vie régionale aux niveaux politique, culturel, religieux et linguistique. La France ne perçoit pas le particularisme des populations retrouvées et leur volonté de conserver les valeurs qui leur sont chères. L'autonomisme alsacien des années 1920 et la répression du mouvement par les autorités françaises mettent à mal les relations entre Paris et Strasbourg. Alors que le début des années 1930 se déroule sur ce fond de tensions, l'arrivée d'Adolf Hitler au pouvoir en 1933 en Allemagne modifie radicalement la donne. Le présent mémoire s'interroge sur la perception par la presse alsacienne francophone de la montée du nazisme en Allemagne, de 1933 à 1939. L'Alsace remet-elle en question son allégeance à une France qui démontre des signes de faiblesses et qui ne comprend pas la région ou préfère-t-elle une Allemagne forte et stable? En consultant des journaux de différentes orientations politiques et religieuses, soit Les dernières nouvelles de Strasbourg, Le nouvelliste d'Alsace, Le Lorrain et L'éclair de l'Est, nous avons analysé l'opinion de la presse alsacienne sur les événements allemands des années 1930. Il apparaît évident que la presse francophone n'est pas en faveur d'un retour avec le Reich. Néanmoins, l'allégeance à la France n'est pas aussi nette que le laisse croire l'historiographie à ce sujet. Jusqu'en mars 1938, la presse alsacienne francophone ne revendique pas de statut particulier, insatisfaite qu'elle est des options qui s'offrent à elle, autant du côté de la France que de l'Allemagne. Le point de vue de la région change régulièrement. Alors que Hitler attire tous les regards en 1933, la situation politique instable en France ainsi que les décisions du Front populaire sont le point de mire pour la presse alsacienne francophone à partir de 1936. Ce n'est que lorsque la guerre semble inévitable qu'elle se range derrière la République française.
Resumo:
Cette thèse vise à mieux comprendre les tensions ethniques. Ceci est fait en explorant, dans une étude en quatre parties, l'une de ses caractéristiques les plus importantes mais sévèrement négligées: la langue. S’inspirant des traditions de recherche de la sociolinguistique, de la psychologie sociale et de la science politique, cette thèse fournit une analyse en profondeur de l'influence de la langue sur les relations intergroupes. Elle le fait, spécifiquement, en se concentrant sur l'influence que la vitalité linguistique, la santé sociale d'une langue, a sur les tensions sociales. Cette thèse propose un cadre théorique dans lequel le niveau de vitalité linguistique contribue à générer des griefs culturels qui ont une incidence par la suite sur les relations intergroupes. Le premier article explore la relation macro entre la vitalité linguistique et l'intensité des conflits intergroupes. Les résultats, dérivés de données de l'Atlas UNESCO des langues en danger dans le monde et du projet Minorities at Risk (MAR), démontrent une relation curvilinéaire où les niveaux bas et élevé de vitalité linguistique génèrent une intensité inférieure au niveau modéré de vitalité. Ces résultats confirment que la vitalité linguistique est un déterminant important des tensions ethniques fondées sur la langue d'une manière générale, mais encore davantage pour les pays ayant plusieurs minorités linguistiques. Le deuxième article explore l'influence de la vitalité linguistique sur la confiance politique. Il utilise des données de l'Atlas UNESCO des langues en danger dans le monde ainsi que des données du European Social Survey (ESS). Les résultats soutiennent un modèle de médiation dans lequel la vitalité linguistique influence positivement la confiance politique d'une manière directe ainsi qu’indirectement par le biais de la discrimination perçue. Le troisième article cherche à isoler la séquence socio-psychologique qui relie la vitalité linguistique aux tensions intergroupes. Des données de sondage originales ont été recueillies auprès de francophones du Québec, de l'Ontario, du Nouveau-Brunswick et du Manitoba. Les résultats d’analyses de régression multiple soutiennent une séquence socio-psychologique dans laquelle la menace endogroupe influence les attitudes envers l’exogroupe par le biais de la menace perçue comme étant causée par l’exogroupe. Ainsi, ces constats soulignent l'importance des perceptions de la vitalité linguistique pour les attitudes intergroupes. Le quatrième article, produit en collaboration avec Patrick Fournier et Veronica Benet-Martinez, utilise un protocole expérimental pour déterminer le rôle causal de la vitalité linguistique sur les attitudes intergroupes. Les résultats démontrent que le type d'information, positif ou négatif, au sujet de la vitalité linguistique influence les perceptions de menace envers une langue. Cependant, les résultats quant à l'impact de l’information à propos de la vitalité linguistique sur les attitudes envers l’exogroupe, l’appui à la souveraineté et l'identité subjective sont moins évidents. Cette thèse permet de mieux comprendre les tensions intergroupes en démontrant le rôle important que joue la vitalité linguistique sur des phénomènes macros ainsi que sur les attitudes des individus.
Resumo:
La présente étude porte sur les effets de la familiarité dans l’identification d’individus en situation de parade vocale. La parade vocale est une technique inspirée d’une procédure paralégale d’identification visuelle d’individus. Elle consiste en la présentation de plusieurs voix avec des aspects acoustiques similaires définis selon des critères reconnus dans la littérature. L’objectif principal de la présente étude était de déterminer si la familiarité d’une voix dans une parade vocale peut donner un haut taux d’identification correcte (> 99 %) de locuteurs. Cette étude est la première à quantifier le critère de familiarité entre l’identificateur et une personne associée à « une voix-cible » selon quatre paramètres liés aux contacts (communications) entre les individus, soit la récence du contact (à quand remonte la dernière rencontre avec l’individu), la durée et la fréquence moyenne du contact et la période pendant laquelle avaient lieu les contacts. Trois différentes parades vocales ont été élaborées, chacune contenant 10 voix d’hommes incluant une voix-cible pouvant être très familière; ce degré de familiarité a été établi selon un questionnaire. Les participants (identificateurs, n = 44) ont été sélectionnés selon leur niveau de familiarité avec la voix-cible. Toutes les voix étaient celles de locuteurs natifs du franco-québécois et toutes avaient des fréquences fondamentales moyennes similaires à la voix-cible (à un semi-ton près). Aussi, chaque parade vocale contenait des énoncés variant en longueur selon un nombre donné de syllabes (1, 4, 10, 18 syll.). Les résultats démontrent qu’en contrôlant le degré de familiarité et avec un énoncé de 4 syllabes ou plus, on obtient un taux d’identification avec une probabilité exacte d’erreur de p < 1 x 10-12. Ces taux d’identification dépassent ceux obtenus actuellement avec des systèmes automatisés.
Resumo:
Le mouvement de la marche est un processus essentiel de l'activité humaine et aussi le résultat de nombreuses interactions collaboratives entre les systèmes neurologiques, articulaires et musculo-squelettiques fonctionnant ensemble efficacement. Ceci explique pourquoi une analyse de la marche est aujourd'hui de plus en plus utilisée pour le diagnostic (et aussi la prévention) de différents types de maladies (neurologiques, musculaires, orthopédique, etc.). Ce rapport présente une nouvelle méthode pour visualiser rapidement les différentes parties du corps humain liées à une possible asymétrie (temporellement invariante par translation) existant dans la démarche d'un patient pour une possible utilisation clinique quotidienne. L'objectif est de fournir une méthode à la fois facile et peu dispendieuse permettant la mesure et l'affichage visuel, d'une manière intuitive et perceptive, des différentes parties asymétriques d'une démarche. La méthode proposée repose sur l'utilisation d'un capteur de profondeur peu dispendieux (la Kinect) qui est très bien adaptée pour un diagnostique rapide effectué dans de petites salles médicales car ce capteur est d'une part facile à installer et ne nécessitant aucun marqueur. L'algorithme que nous allons présenter est basé sur le fait que la marche saine possède des propriétés de symétrie (relativement à une invariance temporelle) dans le plan coronal.
Resumo:
Ce projet offre une analyse des traductions en langue française du roman d’Aphra Behn, Oronooko, or The Royal Slave (1688). Dans cette œuvre, la première femme à vivre de sa plume présente une des premières formulations du discours abolitionniste de la littérature anglaise et met au défi des idées reçues sur l’esclavage depuis le XVIIe siècle. Le texte a été traduit vers le français pour la première fois par Pierre-Antoine de La Place (Behn, 1745), dont l’interprétation s’inscrit dans la tradition des belles infidèles. Sa version connaît un succès fulgurant jusqu’à la fin du XVIIIe siècle, avec de nombreuses rééditions parues entre 1745 et 1799. En 1990, Bernard Dhuicq publie une retraduction dans le but de faire connaître Behn aux lecteurs français du XXe siècle. En 2008, il contribue à la préparation d’une nouvelle édition de La Place, et une réédition de sa propre traduction parue en 1990. Pour sa part, Guillaume Villeneuve adapte le texte au lectorat francophone d’aujourd’hui avec une édition critique comprenant un important appareil critique publiée dans la collection « GF » des Éditions Flammarion en 2009. Les traductions de La Place, d’Dhuicq et de Villeneuve affichent chacune des variations par rapport à l’original, variations qui reflètent l’intention de ces traducteurs et de leurs éditeurs ainsi que les pratiques traductives et éditoriales de leur époque.. Cette étude montre notamment comment le récit de Behn a contribué à changer la conception occidentale de l’esclavage. Elle analyse la réception des propos idéologiques d’Oroonoko dans la culture littéraire et philosophique française, depuis le XVIIIe siècle jusqu’à nos jours. À travers le cas Oronooko, le présent mémoire offre aussi une réflexion d’ordre méthodologique sur l’étude des retraductions dans une perspective historique. L’étude des retraductions vise aujourd’hui des objectifs plus vastes sur le plan historique que ne l’indique l’hypothèse du progrès en retraduction, selon laquelle un texte est retraduit pour être corrigé ou amélioré. Notre travail montre qu’en associant à l’étude des traductions celle de leur paratexte, de leur péritexte et des sujets (traducteurs et éditeurs) qui les produisent, et ce afin de resituer chaque retraduction dans son contexte historique propre, on parvient à faire entrer ces retraductions dans un dialogue interculturel et « transhistoriciste » (Nouss, 2007).
L'oeuvre au service de la traduction : l'écriture vianesque, une invitation à la traduction créative
Resumo:
Stanley Chapman n’est pas un traducteur ni même un écrivain très connu. Le volume de ses écrits originaux, qui sont d’ailleurs difficiles voire impossibles à trouver, et des traductions à son actif reste mince. Peut-être serait-il même passé complètement inaperçu, sauf bien sûr chez ses compères du Collège de ’Pataphysique, de l’Oulipo et de l’Outrapo, s’il n’avait pas traduit deux romans phares de l’écrivain français Boris Vian: L’Écume des jours et L’Arrache-coeur. La prose singulière de Vian l’aurait-elle incité à passer à l’acte d’écriture qui trouve justement sa source et se déploie dans l’acte du traduire ? Par ailleurs, les affinités intellectuelles que partageaient Vian et Chapman pourraient-elles aussi être en cause dans cette expérience du traduire ? Henri Meschonnic et Antoine Berman nous informent que la critique de la traduction a le pouvoir de révéler le rapport intime entre la pensée, l’écriture et la traduction. À partir de la « poétique du traduire » de Meschonnic et de « l’analytique de la traduction » de Berman, ce mémoire interroge en quoi Heartsnatcher, la traduction anglaise de L’Arrache-coeur, peut être considérée comme un acte de « traduire-écrire ». Étayée des notions de rythme et de signifiance, notre critique identifie les stratégies qui émergent de cette activité de création qu’est la traduction et par le fait même, révèle la manière particulière dont Stanley Chapman est parvenu à traduire L’Arrache-coeur.
Resumo:
Dans le but d’optimiser la représentation en mémoire des enregistrements Scheme dans le compilateur Gambit, nous avons introduit dans celui-ci un système d’annotations de type et des vecteurs contenant une représentation abrégée des enregistrements. Ces derniers omettent la référence vers le descripteur de type et l’entête habituellement présents sur chaque enregistrement et utilisent plutôt un arbre de typage couvrant toute la mémoire pour retrouver le vecteur contenant une référence. L’implémentation de ces nouvelles fonctionnalités se fait par le biais de changements au runtime de Gambit. Nous introduisons de nouvelles primitives au langage et modifions l’architecture existante pour gérer correctement les nouveaux types de données. On doit modifier le garbage collector pour prendre en compte des enregistrements contenants des valeurs hétérogènes à alignements irréguliers, et l’existence de références contenues dans d’autres objets. La gestion de l’arbre de typage doit aussi être faite automatiquement. Nous conduisons ensuite une série de tests de performance visant à déterminer si des gains sont possibles avec ces nouvelles primitives. On constate une amélioration majeure de performance au niveau de l’allocation et du comportement du gc pour les enregistrements typés de grande taille et des vecteurs d’enregistrements typés ou non. De légers surcoûts sont toutefois encourus lors des accès aux champs et, dans le cas des vecteurs d’enregistrements, au descripteur de type.
Resumo:
Les logiciels sont de plus en plus complexes et leur développement est souvent fait par des équipes dispersées et changeantes. Par ailleurs, de nos jours, la majorité des logiciels sont recyclés au lieu d’être développés à partir de zéro. La tâche de compréhension, inhérente aux tâches de maintenance, consiste à analyser plusieurs dimensions du logiciel en parallèle. La dimension temps intervient à deux niveaux dans le logiciel : il change durant son évolution et durant son exécution. Ces changements prennent un sens particulier quand ils sont analysés avec d’autres dimensions du logiciel. L’analyse de données multidimensionnelles est un problème difficile à résoudre. Cependant, certaines méthodes permettent de contourner cette difficulté. Ainsi, les approches semi-automatiques, comme la visualisation du logiciel, permettent à l’usager d’intervenir durant l’analyse pour explorer et guider la recherche d’informations. Dans une première étape de la thèse, nous appliquons des techniques de visualisation pour mieux comprendre la dynamique des logiciels pendant l’évolution et l’exécution. Les changements dans le temps sont représentés par des heat maps. Ainsi, nous utilisons la même représentation graphique pour visualiser les changements pendant l’évolution et ceux pendant l’exécution. Une autre catégorie d’approches, qui permettent de comprendre certains aspects dynamiques du logiciel, concerne l’utilisation d’heuristiques. Dans une seconde étape de la thèse, nous nous intéressons à l’identification des phases pendant l’évolution ou pendant l’exécution en utilisant la même approche. Dans ce contexte, la prémisse est qu’il existe une cohérence inhérente dans les évènements, qui permet d’isoler des sous-ensembles comme des phases. Cette hypothèse de cohérence est ensuite définie spécifiquement pour les évènements de changements de code (évolution) ou de changements d’état (exécution). L’objectif de la thèse est d’étudier l’unification de ces deux dimensions du temps que sont l’évolution et l’exécution. Ceci s’inscrit dans notre volonté de rapprocher les deux domaines de recherche qui s’intéressent à une même catégorie de problèmes, mais selon deux perspectives différentes.
Resumo:
En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.
Resumo:
Cette recherche a pour but d’étudier les pratiques enseignantes de soutien auprès des élèves immigrants récemment arrivés au Québec, ne maîtrisant pas le français et intégrés dans des classes ordinaires au primaire. Pour ce faire, nous avons mené une recherche de type qualitatif avec deux enseignantes et leurs trois élèves immigrantes. Afin de documenter les pratiques de soutien en contexte réel de la classe, comprendre les raisons des enseignantes à l’égard du soutien et le point de vue des élèves, nous avons procédé à des observations de classe et à des entrevues individuelles générales et spécifiques avec les participantes, en plus de consulter certaines productions écrites des élèves immigrantes participantes. La présentation des données prend la forme d’une étude multicas décrivant les pratiques de soutien mises en place par chacune des deux enseignantes à partir de 22 séquences de soutien qui ont été décrites en tenant compte du contexte de chaque classe, puis analysées à la lumière de deux cadres théoriques complémentaires, le cadre d’analyse du travail enseignant et l’approche sociohistorico-culturelle. Les résultats de cette recherche mettent en exergue le sens de la pratique enseignante de soutien qui se coconstruit dans les interactions entre l’enseignante et l’élève, selon leurs apports mutuels, et selon les facteurs de la classe. L’analyse des raisons des enseignantes à l’égard du soutien montre que devant les difficultés des élèves immigrantes anticipées, constatées ou signalées, les enseignantes prennent des décisions pour prendre ces difficultés en considération, les traiter et mettre en place des pratiques de soutien. Les décisions des enseignantes découlent d’un processus de négociation interne entre la prise en compte des difficultés, notamment imprévues, et le maintien de leurs tâches prescrites, tout en considérant les facteurs contextuels de la classe. Le processus de négociation se poursuit et se déplace ensuite entre l’enseignante et l’élève, lesquelles construisent le sens de soutien à travers leurs interactions. Les concepts empruntés de l’approche sociohistorico-culturelle nous permettent de comprendre la relation dialectique entre l’élève et l’enseignante lors des interactions. Les deux s’ajustent l’une par rapport à l’autre dans le but d’arriver à un consensus sur le sens de la difficulté. De ce fait, la pratique enseignante de soutien est construite suite aux négociations entre l’élève et l’enseignante, mais aussi suite à la négociation interne de l’enseignante, et ce, dépendamment des facteurs du contexte. Notre recherche a contribué à apporter cette clarification sur la manière d’appréhender les pratiques enseignantes de soutien en contexte de classe ordinaire.
Resumo:
Des évidences expérimentales récentes indiquent que les ARN changent de structures au fil du temps, parfois très rapidement, et que ces changements sont nécessaires à leurs activités biochimiques. La structure de ces ARN est donc dynamique. Ces mêmes évidences notent également que les structures clés impliquées sont prédites par le logiciel de prédiction de structure secondaire MC-Fold. En comparant les prédictions de structures du logiciel MC-Fold, nous avons constaté un lien clair entre les structures presque optimales (en termes de stabilité prédites par ce logiciel) et les variations d’activités biochimiques conséquentes à des changements ponctuels dans la séquence. Nous avons comparé les séquences d’ARN du point de vue de leurs structures dynamiques afin d’investiguer la similarité de leurs fonctions biologiques. Ceci a nécessité une accélération notable du logiciel MC-Fold. L’approche algorithmique est décrite au chapitre 1. Au chapitre 2 nous classons les impacts de légères variations de séquences des microARN sur la fonction naturelle de ceux-ci. Au chapitre 3 nous identifions des fenêtres dans de longs ARN dont les structures dynamiques occupent possiblement des rôles dans les désordres du spectre autistique et dans la polarisation des œufs de certains batraciens (Xenopus spp.).
Resumo:
En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.
Resumo:
Les ombres sont un élément important pour la compréhension d'une scène. Grâce à elles, il est possible de résoudre des situations autrement ambigües, notamment concernant les mouvements, ou encore les positions relatives des objets de la scène. Il y a principalement deux types d'ombres: des ombres dures, aux limites très nettes, qui résultent souvent de lumières ponctuelles ou directionnelles; et des ombres douces, plus floues, qui contribuent à l'atmosphère et à la qualité visuelle de la scène. Les ombres douces résultent de grandes sources de lumière, comme des cartes environnementales, et sont difficiles à échantillonner efficacement en temps réel. Lorsque l'interactivité est prioritaire sur la qualité, des méthodes d'approximation peuvent être utilisées pour améliorer le rendu d'une scène à moindre coût en temps de calcul. Nous calculons interactivement les ombres douces résultant de sources de lumière environnementales, pour des scènes composées d'objets en mouvement et d'un champ de hauteurs dynamique. Notre méthode enrichit la méthode d'exponentiation des harmoniques sphériques, jusque là limitée aux bloqueurs sphériques, pour pouvoir traiter des champs de hauteurs. Nous ajoutons également une représentation pour les BRDFs diffuses et glossy. Nous pouvons ainsi combiner les visibilités et BRDFs dans un même espace, afin de calculer efficacement les ombres douces et les réflexions de scènes complexes. Un algorithme hybride, qui associe les visibilités en espace écran et en espace objet, permet de découpler la complexité des ombres de la complexité de la scène.
Resumo:
La musique aujourd’hui est régulièrement accompagnée d’environnements visuels. Depuis les propositions en provenance du vidéoclip jusqu’aux œuvres installatives en passant par l’art web ou le cinéma, l’audiovisuel occupe une place considérable dans notre monde médiatisé et constitue un foyer important du développement des pratiques musicales. L’alliage entre son et image est souvent rattachée à l’histoire du cinéma mais les prémisses entourant l’audiovisuel remontent en réalité à l’Antiquité. Les correspondances entre sons et couleurs ont pris racine en premier chez les Pythagoriciens et cet intérêt se poursuit encore aujourd’hui. L’avènement de différentes technologies est venu reformuler au fil des siècles cette recherche qui retourne du décloisonnement artistique. L’arrivée de l’électricité permet au XIXe siècle le développement d’une lutherie expérimentale avec entre autres l’orgue à couleur d’Alexander Rimington. Ces instruments audiovisuels donnent naissance plus tard au Lumia, un art de la couleur et du mouvement se voulant proche de la musique et qui ne donne pourtant rien à entendre. Parallèlement à ces nouvelles propositions artistiques, il se développe dès les tout début du XXe siècle au sein des avant-gardes cinématographiques un corpus d’œuvres qui sera ensuite appelé musique visuelle. Les possibilités offertes par le support filmique vient offrir de nouvelles possibilités quant à l’organisation de la couleur et du mouvement. La pratique de cet art hybride est ensuite reformulée par les artistes associés à l’art vidéo avant de connaitre une vaste phase de démocratisation avec l’avènement des ordinateurs domestiques depuis les années 1990. Je retrace le parcours historique de ces pratiques audiovisuelles qui s’inscrivent résolument sur le terrain du musical. Un parcours appuyé essentiellement sur des œuvres et des ouvrages théoriques tout en étant parsemé de réflexions personnelles. Je traite des enjeux théoriques associés à ces propositions artistiques en les différenciant d’un autre format audiovisuel majeur soit le cinéma. Cet exposé permet de préparer le terrain afin de présenter et contextualiser mon travail de création. Je traite de deux œuvres, Trombe (2011) et Lungta (2012), des propositions qui héritent à la fois des musiques visuelles, de l’art interactif et de l’art cinétique.