43 resultados para Réseaux optiques
Resumo:
Les polygones à coin de glace sont très répandus dans la zone du pergélisol continu. Lorsque le ruissellement d’eau de fonte nivale s’infiltre de façon concentrée dans une cavité, il peut initier le processus de thermo-érosion du pergélisol (notamment des coins de glace) pouvant mener à la formation de ravins. Dans la vallée de Qalikturvik sur l’Ile Bylot (NU, Canada), le développement de ravins de thermo-érosion dans un milieu de polygones à coins de glace entraîne comme impact : i. la réorganisation des réseaux de drainage impliquant un assèchement des milieux humides en marge des chenaux d’érosion, ii. des variations dans le régime thermique et de l’humidité de proche-surface et iii. la prise en charge et le déplacement des sédiments vers l’extérieur du bassin-versant. L’objectif de cette thèse vise à approfondir les connaissances géomorphologiques propres au ravinement par thermo-érosion, d’examiner, caractériser et quantifier les impacts du ravinement (tel que sus-mentionné en i. ii. iii.) et le rôle de celui-ci dans une optique d’évolution du paysage périglaciaire à l’échelle temporelle de l’année à la décennie. Les ravins sont dynamiques : un ravin en particulier déclenché en 1999 et étudié depuis s’érodait à une vitesse de 38 à 50 m/a durant sa première décennie d’existence, pour atteindre une longueur totale de ~750 m et une surface érodée de ~25 000 m² en 2009. Des puits sont localisés près des zones de ravinement actives ; des levées alluviale, mares et polygones effondrés dans les zones stabilisées post-perturbation. Sur la terrasse de polygones recouvrant le plancher de la vallée au site à l’étude, 35 ravins furent identifiés et 1401 polygones furent perturbés avec 200 000 m³ de sols transportés. Une amélioration du drainage, une dégradation de la capacité de rétention de l’humidité, une transition d’un écoulement de ruissellement vers un écoulement canalisé caractérise les aires ravinées et leurs environs. Les polygones intacts sont homogènes d’un à l’autre et dans leurs centres ; les polygones perturbés ont une réponse hétérogène (flore, humidité et régime thermique). Les milieux érodés hétérogènes succèdent aux milieux homogènes et deviennent le nouvel état d’équilibre pour plusieurs décennies.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Depuis le début du XXIe siècle, un type particulier d’images a envahi l’espace public constitué par Internet : il s’agit des images principales de profil, ces images que les utilisateurs de sites de réseaux sociaux choisissent pour les représenter auprès des autres individus connectés. Comme le plus souvent il s’agit d’une image du corps de celui ou celle qui s’affiche ainsi, il est intéressant de s’intéresser à cette pratique en la rattachant à des pratiques plus anciennes. Dans un premier temps, cette étude présente donc une perspective socio-historique en notant la ressemblance de la pratique de l’image principale de profil avec celle de l’autoportrait et du portrait commandé. Cela permet de remarquer plusieurs points de rupture ou d’inflexion dans l’usage de ce type d’images, mais aussi d’en dégager les usages sociaux typiques. Ensuite, l’observation d’un lieu particulier d’Internet permet de tirer les conclusions suivantes : si l’usage principal de ces images est facile à expliquer, elles servent à symboliser une présence dans des lieux non accessibles aux corps sensibles, ces images montrent toujours des éléments qui permettent de déduire une position sociale et elles sont fondamentalement identiques aux images produites avant Internet. Ensuite, l’étude de ces images montre qu’il y a un véritable continuum dans la manière de dévoiler son intimité qui permet d’affirmer que la frontière entre public et privé n’existe pas sur Internet. Finalement, ces images montrent une absence de canon quant à leur production et une multiplicité des façons de se mettre en scène qui laissent à penser qu’elles sont devenues des symboles à part entière dans la communication qui peut s’établir entre des étrangers sur Internet.
Resumo:
Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.
Resumo:
Les écosystèmes dunaires remplissent plusieurs fonctions écologiques essentielles comme celle de protéger le littoral grâce à leur capacité d’amortissement face aux vents et vagues des tempêtes. Les dunes jouent aussi un rôle dans la filtration de l’eau, la recharge de la nappe phréatique, le maintien de la biodiversité, en plus de présenter un attrait culturel, récréatif et touristique. Les milieux dunaires sont très dynamiques et incluent plusieurs stades de succession végétale, passant de la plage de sable nu à la dune bordière stabilisée par l’ammophile à ligule courte, laquelle permet aussi l’établissement d’autres herbacées, d’arbustes et, éventuellement, d’arbres. Or, la survie de ces végétaux est intimement liée aux microorganismes du sol. Les champignons du sol interagissent intimement avec les racines des plantes, modifient la structure des sols, et contribuent à la décomposition de la matière organique et à la disponibilité des nutriments. Ils sont donc des acteurs clés de l’écologie des sols et contribuent à la stabilisation des dunes. Malgré cela, la diversité et la structure des communautés fongiques, ainsi que les mécanismes influençant leur dynamique écologique, demeurent relativement méconnus. Le travail présenté dans cette thèse explore la diversité des communautés fongiques à travers le gradient de succession et de conditions édaphiques d’un écosystème dunaire côtier afin d’améliorer la compréhension de la dynamique des sols en milieux dunaires. Une vaste collecte de données sur le terrain a été réalisée sur une plaine de dunes reliques se trouvant aux Îles de la Madeleine, Qc. J’ai échantillonné plus de 80 sites répartis sur l’ensemble de ce système dunaire et caractérisé les champignons du sol grâce au séquençage à haut débit. Dans un premier temps, j’ai dressé un portait d’ensemble des communautés fongiques du sol à travers les différentes zones des dunes. En plus d’une description taxonomique, les modes de vie fongiques ont été prédits afin de mieux comprendre comment les variations au niveau des communautés de champignons du sol peuvent se traduire en changements fonctionnels. J’ai observé un niveau de diversité fongique élevé (plus de 3400 unités taxonomiques opérationnelles au total) et des communautés taxonomiquement et fonctionnellement distinctes à travers un gradient de succession et de conditions édaphiques. Ces résultats ont aussi indiqué que toutes les zones des dunes, incluant la zone pionière, supportent des communautés fongiques diversifiées. Ensuite, le lien entre les communautés végétales et fongiques a été étudié à travers l’ensemble de la séquence dunaire. Ces résultats ont montré une augmentation claire de la richesse spécifique végétale, ainsi qu’une augmentation de la diversité des stratégies d’acquisition de nutriments (traits souterrains lié à la nutrition des plantes, soit mycorhizien à arbuscule, ectomycorhizien, mycorhizien éricoide, fixateur d’azote ou non spécialisé). J’ai aussi pu établir une forte corrélation entre les champignons du sol et la végétation, qui semblent tous deux réagir de façon similaire aux conditions physicochimiques du sol. Le pH du sol influençait fortement les communautés végétales et fongiques. Le lien observé entre les communautés végétales et fongiques met l’emphase sur l’importance des interactions biotiques positives au fil de la succession dans les environnements pauvres en nutriments. Finalement, j’ai comparé les communautés de champignons ectomycorhiziens associées aux principales espèces arborescentes dans les forêts dunaires. J’ai observé une richesse importante, avec un total de 200 unités taxonomiques opérationnelles ectomycorhiziennes, appartenant principalement aux Agaricomycètes. Une analyse de réseaux n’a pas permis de détecter de modules (c'est-à-dire des sous-groupes d’espèces en interaction), ce qui indique un faible niveau de spécificité des associations ectomycorhiziennes. De plus, je n’ai pas observé de différences en termes de richesse ou de structure des communautés entre les quatre espèces hôtes. En conclusion, j’ai pu observer à travers la succession dunaire des communautés diversifiées et des structures distinctes selon la zone de la dune, tant chez les champignons que chez les plantes. La succession semble toutefois moins marquée au niveau des communautés fongiques, par rapport aux patrons observés chez les plantes. Ces résultats ont alimenté une réflexion sur le potentiel et les perspectives, mais aussi sur les limitations des approches reposant sur le séquençage à haut-débit en écologie microbienne.
Resumo:
Réalisé en cotutelle avec l'École normale supérieure de Cachan – Université Paris-Saclay
Resumo:
Le but de cette recherche est d’évaluer l’importance du paysage culturel dans la résilience des communautés urbaines post-catastrophes. Ce travail se concentre sur le quartier du Lower Ninth Ward dans la ville de La Nouvelle-Orléans (États-Unis) après le passage de l’ouragan Katrina en 2005. Les catastrophes naturelles prennent une envergure et causent des dommages considérables lorsqu’elles touchent des villes. La reconstruction post -désastre est donc très dispendieuse pour les villes et les gouvernements, d’autant que certaines régions sont dévastées au point qu’elles doivent être reconstruites au complet. Cependant, le coût le plus lourd à assumer reste celui en vies humaines et si rebâtir les éléments concrets d’une ville est une tâche difficile à entreprendre, reconstruire une communauté est considérablement plus complexe. Dans le but de comprendre une telle démarche, cette recherche se concentre sur les éléments intangibles, comme l’attachement au lieu et les réseaux sociaux, dont une communauté a besoin pour se reconstituer de façon durable et résiliente. Le concept de résilience est très contesté dans la littérature et plusieurs chercheurs se sont essayés à le mesurer. Cette recherche adopte une perspective critique sur le concept et le revisite d’un point de vue holistique pour mettre en lumière sa complexité. Cette démarche permet de remettre en question l’importance de mesurer un concept finalement en perpétuelle redéfinition dans le temps et selon les échelles géographiques. De plus, en établissant une relation entre résilience et paysage culturel, il a été possible de mieux comprendre la complexité de la résilience. Touchant à plusieurs disciplines (architecture de paysage, urbanisme et sociologie), cette recherche utilise une méthodologie qui reflète son aspect multidisciplinaire : les méthodes mixtes. Ces dernières permettent la collecte de données quantitatives et qualitatives qui produisent une vue globale de la situation post-Katrina à travers le regroupement de recensions statistiques, d’observations de terrain et d’articles de journaux. Parallèlement, des entretiens ont été réalisés avec des résidents du quartier ainsi qu’avec des professionnels pour mieux comprendre les différents points de vue. Cette méthodologie a permis de produire des résultats au niveau du cas d’étude autant qu’au niveau théorique. La recherche valide l’importance de prendre en compte le paysage culturel dans les situations post-catastrophes, (en particulier) dans la mesure où il s’agit d’un élément souvent négligé par les urbanistes et les acteurs locaux. En effet, les éléments constitutifs du paysage culturel tels que l’attachement au lieu et les réseaux sociaux, participent d’un sentiment d'appartenance (« home ») et d’une volonté, pour les résidents, de reconstruire leurs habitations, leur communauté ainsi que leur quartier. Toutefois, il faut reconnaître que ces éléments ne suffisent pas à retrouver ce qu’ils ont perdu. Ainsi, l’étude du paysage culturel permet non seulement de mieux comprendre la complexité de la résilience, mais démontre également que cette dernière est une construction sociale.
Resumo:
Les récepteurs couplés aux protéines G (RCPG) démontrent de plus en plus de capacités à activer des mécanismes jusqu’alors associés à des facteurs de transcription ou des molécules d’adhésion. En effet, de nouvelles preuves rapportent qu’ils pourraient également participer au guidage axonal qui est le mécanisme permettant aux axones de cellules nerveuses de rejoindre leur cible anatomique. Le guidage axonal se fait par l’interaction entre les molécules de guidage et une structure particulière présente à l’extrémité de l’axone, le cône de croissance. Par exemple, les RCPGs participent au guidage des cellules ganglionnaires de la rétine (CGR), dont les axones s’étendent de la rétine jusqu’au noyaux cérébraux associés à la vision. Cet effet est observé avec des RCPGs tels que les récepteurs aux cannabinoïdes (CB1 et CB2) et celui du lysophosphatidylinositol, le GPR55. Les RCPGs GPR91 et GPRG99, respectivement récepteurs au succinate et à l’α-cétoglutarate, se trouvent à la surface de ces CGRs, ce qui en font des candidats potentiels pouvant participer au guidage axonal. Dans ce mémoire, l’effet des ligands de ces récepteurs sur la croissance et la navigation des axones des CGRs fut analysé. L’impact produit par ces récepteurs ainsi que leurs ligands sur la morphologie des cônes de croissance fut déterminé en mesurant leur taille et le nombre de filopodes présents sur ces cônes. Pour évaluer le rôle du succinate et de l’a-cétoglutarate sur la croissance globale des axones de CGRs, la longueur totale des projections axonales d’explants rétiniens a été mesurée. L’effet de ces ligands des récepteurs GPR91 et GPR99 sur le guidage axonal a également été évalué en temps réel à l’aide d’un gradient créé par un micro injecteur placé à 45° et à 100µm du cône de croissance. La distribution in vivo des récepteurs GPR91 et GPR99 sur la rétine a été étudié à l’aide d’expériences d’immunohistochimie. Les résultats obtenus indiquent que l’ajout de 100µM de succinate produit une augmentation de la taille des cônes de croissance et du nombre de filopodes présents à leur surface. Il augmente également la croissance des axones. Ce type de réponse fut également observé lorsque les cellules furent soumises à 200µM d’α-cétoglutarate. Fait à noter, les deux récepteurs n’ont pas d’impact sur le guidage axonal. Ces résultats indiquent donc que les agonistes des récepteurs GPR91 et GPR99 augmentent la croissance des cellules ganglionnaires lorsqu’ils sont présents lors du développement. Par contre, ils n’ont pas d’influence sur la direction prise par les cônes de croissance. Ces nouvelles données sont un pas de plus dans la compréhension des mécanismes qui gèrent et participent au développement et la croissance des CGRs, ce qui pourrait donner de nouvelles cibles thérapeutique pouvant mener à la régénération de nerfs optiques endommagés.
Resumo:
Ce mémoire tente de répondre à une problématique très importante dans le domaine de recrutement : l’appariement entre offre d’emploi et candidats. Dans notre cas nous disposons de milliers d’offres d’emploi et de millions de profils ramassés sur les sites dédiés et fournis par un industriel spécialisé dans le recrutement. Les offres d’emploi et les profils de candidats sur les réseaux sociaux professionnels sont généralement destinés à des lecteurs humains qui sont les recruteurs et les chercheurs d’emploi. Chercher à effectuer une sélection automatique de profils pour une offre d’emploi se heurte donc à certaines difficultés que nous avons cherché à résoudre dans le présent mémoire. Nous avons utilisé des techniques de traitement automatique de la langue naturelle pour extraire automatiquement les informations pertinentes dans une offre d’emploi afin de construite une requête qui nous permettrait d’interroger notre base de données de profils. Pour valider notre modèle d’extraction de métier, de compétences et de d’expérience, nous avons évalué ces trois différentes tâches séparément en nous basant sur une référence cent offres d’emploi canadiennes que nous avons manuellement annotée. Et pour valider notre outil d’appariement nous avons fait évaluer le résultat de l’appariement de dix offres d’emploi canadiennes par un expert en recrutement.
Resumo:
Le graphène est une nanostructure de carbone hybridé sp2 dont les propriétés électroniques et optiques en font un matériau novateur avec un très large potentiel d’application. Cependant, la production à large échelle de ce matériau reste encore un défi et de nombreuses propriétés physiques et chimiques doivent être étudiées plus en profondeur pour mieux les exploiter. La fonctionnalisation covalente est une réaction chimique qui a un impact important dans l’étude de ces propriétés, car celle-ci a pour conséquence une perte de la structure cristalline des carbones sp2. Néanmoins, la réaction a été très peu explorée pour ce qui est du graphène déposé sur des surfaces, car la réactivité chimique de ce dernier est grandement dépendante de l’environnement chimique. Il est donc important d’étudier la fonctionnalisation de ce type de graphène pour bien comprendre à la fois la réactivité chimique et la modification des propriétés électroniques et optiques pour pouvoir exploiter les retombées. D’un autre côté, les bicouches de graphène sont connues pour avoir des propriétés très différentes comparées à la monocouche à cause d’un empilement des structures électroniques, mais la croissance contrôlée de ceux-ci est encore très difficile, car la cinétique de croissance n’est pas encore maîtrisée. Ainsi, ce mémoire de maîtrise va porter sur l’étude de la réactivité chimique du graphène à la fonctionnalisation covalente et de l’étude des propriétés optiques du graphène. Dans un premier temps, nous avons effectué des croissances de graphène en utilisant la technique de dépôt chimique en phase vapeur. Après avoir réussi à obtenir du graphène monocouche, nous faisons varier les paramètres de croissance et nous nous rendons compte que les bicouches apparaissent lorsque le gaz carboné nécessaire à la croissance reste présent durant l’étape de refroidissement. À partir de cette observation, nous proposons un modèle cinétique de croissance des bicouches. Ensuite, nous effectuons une étude approfondie de la fonctionnalisation du graphène monocouche et bicouche. Tout d’abord, nous démontrons qu’il y a une interaction avec le substrat qui inhibe grandement le greffage covalent sur la surface du graphène. Cet effet peut cependant être contré de plusieurs façons différentes : 1) en dopant chimiquement le graphène avec des molécules réductrices, il est possible de modifier le potentiel électrochimique afin de favoriser la réaction; 2) en utilisant un substrat affectant peu les propriétés électroniques du graphène; 3) en utilisant la méthode d’électrogreffage avec une cellule électrochimique, car elle permet une modulation contrôlée du potentiel électrochimique du graphène. De plus, nous nous rendons compte que la réactivité chimique des bicouches est moindre dû à la rigidité de structure due à l’interaction entre les couches. En dernier lieu, nous démontrons la pertinence de la spectroscopie infrarouge pour étudier l’effet de la fonctionnalisation et l’effet des bicouches sur les propriétés optiques du graphène. Nous réussissons à observer des bandes du graphène bicouche dans la région du moyen infrarouge qui dépendent du dopage. Normalement interdites selon les règles de sélection pour la monocouche, ces bandes apparaissent néanmoins lorsque fonctionnalisée et changent grandement en amplitude dépendamment des niveaux de dopage et de fonctionnalisation.
Resumo:
Ce mémoire a pour but de comparer l’état du clergé anglo-saxon de la période de la Regularis Concordia du Xe siècle, avec celui du clergé anglo-normand d’après conquête situé entre 1060 et 1150. La base de cette recherche se fera à partir des sources narratives les plus pertinentes pour cette période. Mais celles-ci ne seront utilisées qu’en support puisque l’essentiel de ce mémoire sera basé sur le dépouillement des listes d’archevêques, d’évêques et d’abbés ayant vécu entre 1060 à 1150. Nous détaillerons leurs origines géographiques, les charges qu’ils ont occupées durant leur vie de même que leurs réseaux sociaux. Nous tenterons de démontrer que contrairement à l’idée reçue, il n’y eut pas de véritable réforme du clergé anglo-normand suite à la conquête, mais davantage une mise à jour de ce dernier, et qu’en fait, le modèle de gouvernance qui fut imposé au clergé anglo-normand au tournant du XIIe siècle fut largement inspiré du fonctionnement de l’Église normande.
Resumo:
L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.
Resumo:
Le but de ce travail est d’étudier la faisabilité de la détection de mouvements dans des séquences d’images en utilisant l’équation de continuité et la dynamique de supraconductivité. Notre approche peut être motivée par le fait que l’équation de continuité apparait dans plusieurs techniques qui estiment le flot optique. Un grand nombre de techniques qui utilisent les flots optiques utilisent une contrainte appelée contrainte de l’invariance lumineuse. La dynamique de supraconductivité nous permet de nous affranchir de la contrainte de l’invariance lumineuse. Les expériences se feront avec la base de données de séquences d’images CDNET 2014. Pour obtenir les résultats numériques en terme de score F1, une combinaison sera faite par la suite entre la dynamique de supraconductivité et un méchanisme d’attention qui est un résumé des vérites de terrain.