571 resultados para Réseaux optiques (Optoélectronique)
Resumo:
Esta dissertação pretende contribuir para um melhor conhecimento da complexidade das redes de transferência de conhecimentos e técnicas, no domínio da engenharia civil e mais concretamente através dos caminhos-de-ferro, nos séculos XIX e XX. Em Portugal, os caminhos-de-ferro estiveram no cerne de um vasto debate, sobretudo político, concomitante com uma instabilidade crescente no cenário político e uma fase de fragilidade económica. É neste contexto que a Linha do Sul e Sueste vai ser construída (seguida pela sua extensão até Vila Real de Santo António e pela construção do ramal de Portimão, que chegará a Lagos). Este empreendimento é uma clara ilustração da realidade portuguesa de então, no que concerne ao desenvolvimento desta rede de transportes, que nos permite, igualmente, conhecer e compreender quem interveio no processo de construção da linha (os engenheiros, as empresas, entre outros aspectos) e assim determinar quais as influências e transferências técnicas que tiveram lugar; RESUMEE: Cette mémoire attire à la contribution pour une meilleure connaissance de la complexité des réseaux de transfert de techniques et connaissances qui ont eu lieu dans le domaine de l’ingénierie civile, surtout dans les chemins de fer, au XIXème et XXème siècles. Au Portugal, les chemins de fer sont été le cerne d’un très vaste débat, coïncidant avec une croissante instabilité dans le scenario politique et aussi une phase économique fragile. C’est dans ce contexte que la Ligne du Sud et Sud-est va être bâti (suivi par l’extension jusqu’à Vila Real de Santo António et la construction de l’embranchement ferroviaire Portimão). Cette entreprise c’est une illustration claire de la réalité portugaise, en concernant l’implémentation de cette réseau de transport, que nous permettre de comprendre et également bien connaitre qui a intervenu dans le processus de construction de la ligne (les ingénieurs, entreprises, etcetera), ainsi que déterminer les influences et les transferts techniques qui ont eu lieu; ABSTRACT: With this master’s thesis, the aim is to be able to contribute to a better understanding of the complex network of technique’s and knowledge transfers, that took place within the field of civil engineering, in the 19th and 20th centuries, namely on the railways. In Portugal, railways take-up was a wide and ample debate, coinciding with an uprising turmoil on the Portuguese political outskirt and a phase of economic frailty. It’s in this context that the construction of the South and Southeast Line took place (followed, later on, by its extension until Vila Real de Santo António and by the construction of the Portimão’s branch). This enterprise is, as we pretend to prove in this master’s thesis, a clear example of the Portuguese reality, enabling us to understand and to get to know those who intervened in the construction’s process (the engineers and the companies) as well as determining influences and technique transfers that have taken place.
Resumo:
Le but de cette recherche est d’évaluer l’importance du paysage culturel dans la résilience des communautés urbaines post-catastrophes. Ce travail se concentre sur le quartier du Lower Ninth Ward dans la ville de La Nouvelle-Orléans (États-Unis) après le passage de l’ouragan Katrina en 2005. Les catastrophes naturelles prennent une envergure et causent des dommages considérables lorsqu’elles touchent des villes. La reconstruction post -désastre est donc très dispendieuse pour les villes et les gouvernements, d’autant que certaines régions sont dévastées au point qu’elles doivent être reconstruites au complet. Cependant, le coût le plus lourd à assumer reste celui en vies humaines et si rebâtir les éléments concrets d’une ville est une tâche difficile à entreprendre, reconstruire une communauté est considérablement plus complexe. Dans le but de comprendre une telle démarche, cette recherche se concentre sur les éléments intangibles, comme l’attachement au lieu et les réseaux sociaux, dont une communauté a besoin pour se reconstituer de façon durable et résiliente. Le concept de résilience est très contesté dans la littérature et plusieurs chercheurs se sont essayés à le mesurer. Cette recherche adopte une perspective critique sur le concept et le revisite d’un point de vue holistique pour mettre en lumière sa complexité. Cette démarche permet de remettre en question l’importance de mesurer un concept finalement en perpétuelle redéfinition dans le temps et selon les échelles géographiques. De plus, en établissant une relation entre résilience et paysage culturel, il a été possible de mieux comprendre la complexité de la résilience. Touchant à plusieurs disciplines (architecture de paysage, urbanisme et sociologie), cette recherche utilise une méthodologie qui reflète son aspect multidisciplinaire : les méthodes mixtes. Ces dernières permettent la collecte de données quantitatives et qualitatives qui produisent une vue globale de la situation post-Katrina à travers le regroupement de recensions statistiques, d’observations de terrain et d’articles de journaux. Parallèlement, des entretiens ont été réalisés avec des résidents du quartier ainsi qu’avec des professionnels pour mieux comprendre les différents points de vue. Cette méthodologie a permis de produire des résultats au niveau du cas d’étude autant qu’au niveau théorique. La recherche valide l’importance de prendre en compte le paysage culturel dans les situations post-catastrophes, (en particulier) dans la mesure où il s’agit d’un élément souvent négligé par les urbanistes et les acteurs locaux. En effet, les éléments constitutifs du paysage culturel tels que l’attachement au lieu et les réseaux sociaux, participent d’un sentiment d'appartenance (« home ») et d’une volonté, pour les résidents, de reconstruire leurs habitations, leur communauté ainsi que leur quartier. Toutefois, il faut reconnaître que ces éléments ne suffisent pas à retrouver ce qu’ils ont perdu. Ainsi, l’étude du paysage culturel permet non seulement de mieux comprendre la complexité de la résilience, mais démontre également que cette dernière est une construction sociale.
Resumo:
La dynamique sédimentaire à l’embouchure de l’estuaire de Seine est principalement contrôlée par les forçages hydrométéorologiques (débit, vent, vagues, marée) et les fortes pressions anthropiques (endiguement, dragage, clapage). La compréhension et la quantification de la dynamique des flux sédimentaires en suspension (sable/vase) est un enjeu majeur, autant d’un point vu écologique (ex. turbidité, envasement) que financier (ex. gestion des chenaux de navigation). La mise en place de réseaux de mesure in situ permet une meilleure compréhension de la dynamique sédimentaire de l’estuaire, mais leur caractère local rend difficile toute estimation des flux et bilans sédimentaires. Pour répondre à ces questions, cette étude s’appuie sur la modélisation numérique, validée par de nombreuses séries de mesures in situ, afin de quantifier les flux et bilans sédimentaires à différentes échelles caractéristiques de temps et d'espace. Les concentrations simulées dans la zone d'extension du bouchon vaseux sont du même ordre que les observations et leur dynamique associée aux différentes phases et cycles de la marée, ainsi qu'au cycle hydrologique, est satisfaisante. L’analyse des flux résiduels et bilans sédimentaires aux échelles annuelle et trimestrielle a permis d’identifier un schéma de circulation à l’embouchure de l’estuaire et de quantifier l’importance du forçage hydrologique (crue/étiage) sur les échanges sédimentaires. Enfin, ce travail se poursuivra par l’étude de ces flux et bilans pour différents scénarios hydrométéorologiques contrastés.
Resumo:
Tese (doutorado)—Universidade de Brasília, Centro de Desenvolvimento Sustentável, 2015.
Resumo:
Ce mémoire tente de répondre à une problématique très importante dans le domaine de recrutement : l’appariement entre offre d’emploi et candidats. Dans notre cas nous disposons de milliers d’offres d’emploi et de millions de profils ramassés sur les sites dédiés et fournis par un industriel spécialisé dans le recrutement. Les offres d’emploi et les profils de candidats sur les réseaux sociaux professionnels sont généralement destinés à des lecteurs humains qui sont les recruteurs et les chercheurs d’emploi. Chercher à effectuer une sélection automatique de profils pour une offre d’emploi se heurte donc à certaines difficultés que nous avons cherché à résoudre dans le présent mémoire. Nous avons utilisé des techniques de traitement automatique de la langue naturelle pour extraire automatiquement les informations pertinentes dans une offre d’emploi afin de construite une requête qui nous permettrait d’interroger notre base de données de profils. Pour valider notre modèle d’extraction de métier, de compétences et de d’expérience, nous avons évalué ces trois différentes tâches séparément en nous basant sur une référence cent offres d’emploi canadiennes que nous avons manuellement annotée. Et pour valider notre outil d’appariement nous avons fait évaluer le résultat de l’appariement de dix offres d’emploi canadiennes par un expert en recrutement.
Resumo:
Le graphène est une nanostructure de carbone hybridé sp2 dont les propriétés électroniques et optiques en font un matériau novateur avec un très large potentiel d’application. Cependant, la production à large échelle de ce matériau reste encore un défi et de nombreuses propriétés physiques et chimiques doivent être étudiées plus en profondeur pour mieux les exploiter. La fonctionnalisation covalente est une réaction chimique qui a un impact important dans l’étude de ces propriétés, car celle-ci a pour conséquence une perte de la structure cristalline des carbones sp2. Néanmoins, la réaction a été très peu explorée pour ce qui est du graphène déposé sur des surfaces, car la réactivité chimique de ce dernier est grandement dépendante de l’environnement chimique. Il est donc important d’étudier la fonctionnalisation de ce type de graphène pour bien comprendre à la fois la réactivité chimique et la modification des propriétés électroniques et optiques pour pouvoir exploiter les retombées. D’un autre côté, les bicouches de graphène sont connues pour avoir des propriétés très différentes comparées à la monocouche à cause d’un empilement des structures électroniques, mais la croissance contrôlée de ceux-ci est encore très difficile, car la cinétique de croissance n’est pas encore maîtrisée. Ainsi, ce mémoire de maîtrise va porter sur l’étude de la réactivité chimique du graphène à la fonctionnalisation covalente et de l’étude des propriétés optiques du graphène. Dans un premier temps, nous avons effectué des croissances de graphène en utilisant la technique de dépôt chimique en phase vapeur. Après avoir réussi à obtenir du graphène monocouche, nous faisons varier les paramètres de croissance et nous nous rendons compte que les bicouches apparaissent lorsque le gaz carboné nécessaire à la croissance reste présent durant l’étape de refroidissement. À partir de cette observation, nous proposons un modèle cinétique de croissance des bicouches. Ensuite, nous effectuons une étude approfondie de la fonctionnalisation du graphène monocouche et bicouche. Tout d’abord, nous démontrons qu’il y a une interaction avec le substrat qui inhibe grandement le greffage covalent sur la surface du graphène. Cet effet peut cependant être contré de plusieurs façons différentes : 1) en dopant chimiquement le graphène avec des molécules réductrices, il est possible de modifier le potentiel électrochimique afin de favoriser la réaction; 2) en utilisant un substrat affectant peu les propriétés électroniques du graphène; 3) en utilisant la méthode d’électrogreffage avec une cellule électrochimique, car elle permet une modulation contrôlée du potentiel électrochimique du graphène. De plus, nous nous rendons compte que la réactivité chimique des bicouches est moindre dû à la rigidité de structure due à l’interaction entre les couches. En dernier lieu, nous démontrons la pertinence de la spectroscopie infrarouge pour étudier l’effet de la fonctionnalisation et l’effet des bicouches sur les propriétés optiques du graphène. Nous réussissons à observer des bandes du graphène bicouche dans la région du moyen infrarouge qui dépendent du dopage. Normalement interdites selon les règles de sélection pour la monocouche, ces bandes apparaissent néanmoins lorsque fonctionnalisée et changent grandement en amplitude dépendamment des niveaux de dopage et de fonctionnalisation.
Resumo:
Ce mémoire a pour but de comparer l’état du clergé anglo-saxon de la période de la Regularis Concordia du Xe siècle, avec celui du clergé anglo-normand d’après conquête situé entre 1060 et 1150. La base de cette recherche se fera à partir des sources narratives les plus pertinentes pour cette période. Mais celles-ci ne seront utilisées qu’en support puisque l’essentiel de ce mémoire sera basé sur le dépouillement des listes d’archevêques, d’évêques et d’abbés ayant vécu entre 1060 à 1150. Nous détaillerons leurs origines géographiques, les charges qu’ils ont occupées durant leur vie de même que leurs réseaux sociaux. Nous tenterons de démontrer que contrairement à l’idée reçue, il n’y eut pas de véritable réforme du clergé anglo-normand suite à la conquête, mais davantage une mise à jour de ce dernier, et qu’en fait, le modèle de gouvernance qui fut imposé au clergé anglo-normand au tournant du XIIe siècle fut largement inspiré du fonctionnement de l’Église normande.
Resumo:
L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.
Resumo:
Le but de ce travail est d’étudier la faisabilité de la détection de mouvements dans des séquences d’images en utilisant l’équation de continuité et la dynamique de supraconductivité. Notre approche peut être motivée par le fait que l’équation de continuité apparait dans plusieurs techniques qui estiment le flot optique. Un grand nombre de techniques qui utilisent les flots optiques utilisent une contrainte appelée contrainte de l’invariance lumineuse. La dynamique de supraconductivité nous permet de nous affranchir de la contrainte de l’invariance lumineuse. Les expériences se feront avec la base de données de séquences d’images CDNET 2014. Pour obtenir les résultats numériques en terme de score F1, une combinaison sera faite par la suite entre la dynamique de supraconductivité et un méchanisme d’attention qui est un résumé des vérites de terrain.
Resumo:
Les récepteurs couplés aux protéines G (RCPG) démontrent de plus en plus de capacités à activer des mécanismes jusqu’alors associés à des facteurs de transcription ou des molécules d’adhésion. En effet, de nouvelles preuves rapportent qu’ils pourraient également participer au guidage axonal qui est le mécanisme permettant aux axones de cellules nerveuses de rejoindre leur cible anatomique. Le guidage axonal se fait par l’interaction entre les molécules de guidage et une structure particulière présente à l’extrémité de l’axone, le cône de croissance. Par exemple, les RCPGs participent au guidage des cellules ganglionnaires de la rétine (CGR), dont les axones s’étendent de la rétine jusqu’au noyaux cérébraux associés à la vision. Cet effet est observé avec des RCPGs tels que les récepteurs aux cannabinoïdes (CB1 et CB2) et celui du lysophosphatidylinositol, le GPR55. Les RCPGs GPR91 et GPRG99, respectivement récepteurs au succinate et à l’α-cétoglutarate, se trouvent à la surface de ces CGRs, ce qui en font des candidats potentiels pouvant participer au guidage axonal. Dans ce mémoire, l’effet des ligands de ces récepteurs sur la croissance et la navigation des axones des CGRs fut analysé. L’impact produit par ces récepteurs ainsi que leurs ligands sur la morphologie des cônes de croissance fut déterminé en mesurant leur taille et le nombre de filopodes présents sur ces cônes. Pour évaluer le rôle du succinate et de l’a-cétoglutarate sur la croissance globale des axones de CGRs, la longueur totale des projections axonales d’explants rétiniens a été mesurée. L’effet de ces ligands des récepteurs GPR91 et GPR99 sur le guidage axonal a également été évalué en temps réel à l’aide d’un gradient créé par un micro injecteur placé à 45° et à 100µm du cône de croissance. La distribution in vivo des récepteurs GPR91 et GPR99 sur la rétine a été étudié à l’aide d’expériences d’immunohistochimie. Les résultats obtenus indiquent que l’ajout de 100µM de succinate produit une augmentation de la taille des cônes de croissance et du nombre de filopodes présents à leur surface. Il augmente également la croissance des axones. Ce type de réponse fut également observé lorsque les cellules furent soumises à 200µM d’α-cétoglutarate. Fait à noter, les deux récepteurs n’ont pas d’impact sur le guidage axonal. Ces résultats indiquent donc que les agonistes des récepteurs GPR91 et GPR99 augmentent la croissance des cellules ganglionnaires lorsqu’ils sont présents lors du développement. Par contre, ils n’ont pas d’influence sur la direction prise par les cônes de croissance. Ces nouvelles données sont un pas de plus dans la compréhension des mécanismes qui gèrent et participent au développement et la croissance des CGRs, ce qui pourrait donner de nouvelles cibles thérapeutique pouvant mener à la régénération de nerfs optiques endommagés.
Resumo:
Ce mémoire tente de répondre à une problématique très importante dans le domaine de recrutement : l’appariement entre offre d’emploi et candidats. Dans notre cas nous disposons de milliers d’offres d’emploi et de millions de profils ramassés sur les sites dédiés et fournis par un industriel spécialisé dans le recrutement. Les offres d’emploi et les profils de candidats sur les réseaux sociaux professionnels sont généralement destinés à des lecteurs humains qui sont les recruteurs et les chercheurs d’emploi. Chercher à effectuer une sélection automatique de profils pour une offre d’emploi se heurte donc à certaines difficultés que nous avons cherché à résoudre dans le présent mémoire. Nous avons utilisé des techniques de traitement automatique de la langue naturelle pour extraire automatiquement les informations pertinentes dans une offre d’emploi afin de construite une requête qui nous permettrait d’interroger notre base de données de profils. Pour valider notre modèle d’extraction de métier, de compétences et de d’expérience, nous avons évalué ces trois différentes tâches séparément en nous basant sur une référence cent offres d’emploi canadiennes que nous avons manuellement annotée. Et pour valider notre outil d’appariement nous avons fait évaluer le résultat de l’appariement de dix offres d’emploi canadiennes par un expert en recrutement.
Resumo:
Le graphène est une nanostructure de carbone hybridé sp2 dont les propriétés électroniques et optiques en font un matériau novateur avec un très large potentiel d’application. Cependant, la production à large échelle de ce matériau reste encore un défi et de nombreuses propriétés physiques et chimiques doivent être étudiées plus en profondeur pour mieux les exploiter. La fonctionnalisation covalente est une réaction chimique qui a un impact important dans l’étude de ces propriétés, car celle-ci a pour conséquence une perte de la structure cristalline des carbones sp2. Néanmoins, la réaction a été très peu explorée pour ce qui est du graphène déposé sur des surfaces, car la réactivité chimique de ce dernier est grandement dépendante de l’environnement chimique. Il est donc important d’étudier la fonctionnalisation de ce type de graphène pour bien comprendre à la fois la réactivité chimique et la modification des propriétés électroniques et optiques pour pouvoir exploiter les retombées. D’un autre côté, les bicouches de graphène sont connues pour avoir des propriétés très différentes comparées à la monocouche à cause d’un empilement des structures électroniques, mais la croissance contrôlée de ceux-ci est encore très difficile, car la cinétique de croissance n’est pas encore maîtrisée. Ainsi, ce mémoire de maîtrise va porter sur l’étude de la réactivité chimique du graphène à la fonctionnalisation covalente et de l’étude des propriétés optiques du graphène. Dans un premier temps, nous avons effectué des croissances de graphène en utilisant la technique de dépôt chimique en phase vapeur. Après avoir réussi à obtenir du graphène monocouche, nous faisons varier les paramètres de croissance et nous nous rendons compte que les bicouches apparaissent lorsque le gaz carboné nécessaire à la croissance reste présent durant l’étape de refroidissement. À partir de cette observation, nous proposons un modèle cinétique de croissance des bicouches. Ensuite, nous effectuons une étude approfondie de la fonctionnalisation du graphène monocouche et bicouche. Tout d’abord, nous démontrons qu’il y a une interaction avec le substrat qui inhibe grandement le greffage covalent sur la surface du graphène. Cet effet peut cependant être contré de plusieurs façons différentes : 1) en dopant chimiquement le graphène avec des molécules réductrices, il est possible de modifier le potentiel électrochimique afin de favoriser la réaction; 2) en utilisant un substrat affectant peu les propriétés électroniques du graphène; 3) en utilisant la méthode d’électrogreffage avec une cellule électrochimique, car elle permet une modulation contrôlée du potentiel électrochimique du graphène. De plus, nous nous rendons compte que la réactivité chimique des bicouches est moindre dû à la rigidité de structure due à l’interaction entre les couches. En dernier lieu, nous démontrons la pertinence de la spectroscopie infrarouge pour étudier l’effet de la fonctionnalisation et l’effet des bicouches sur les propriétés optiques du graphène. Nous réussissons à observer des bandes du graphène bicouche dans la région du moyen infrarouge qui dépendent du dopage. Normalement interdites selon les règles de sélection pour la monocouche, ces bandes apparaissent néanmoins lorsque fonctionnalisée et changent grandement en amplitude dépendamment des niveaux de dopage et de fonctionnalisation.
Resumo:
Ce mémoire a pour but de comparer l’état du clergé anglo-saxon de la période de la Regularis Concordia du Xe siècle, avec celui du clergé anglo-normand d’après conquête situé entre 1060 et 1150. La base de cette recherche se fera à partir des sources narratives les plus pertinentes pour cette période. Mais celles-ci ne seront utilisées qu’en support puisque l’essentiel de ce mémoire sera basé sur le dépouillement des listes d’archevêques, d’évêques et d’abbés ayant vécu entre 1060 à 1150. Nous détaillerons leurs origines géographiques, les charges qu’ils ont occupées durant leur vie de même que leurs réseaux sociaux. Nous tenterons de démontrer que contrairement à l’idée reçue, il n’y eut pas de véritable réforme du clergé anglo-normand suite à la conquête, mais davantage une mise à jour de ce dernier, et qu’en fait, le modèle de gouvernance qui fut imposé au clergé anglo-normand au tournant du XIIe siècle fut largement inspiré du fonctionnement de l’Église normande.
Resumo:
L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.
Resumo:
Le but de ce travail est d’étudier la faisabilité de la détection de mouvements dans des séquences d’images en utilisant l’équation de continuité et la dynamique de supraconductivité. Notre approche peut être motivée par le fait que l’équation de continuité apparait dans plusieurs techniques qui estiment le flot optique. Un grand nombre de techniques qui utilisent les flots optiques utilisent une contrainte appelée contrainte de l’invariance lumineuse. La dynamique de supraconductivité nous permet de nous affranchir de la contrainte de l’invariance lumineuse. Les expériences se feront avec la base de données de séquences d’images CDNET 2014. Pour obtenir les résultats numériques en terme de score F1, une combinaison sera faite par la suite entre la dynamique de supraconductivité et un méchanisme d’attention qui est un résumé des vérites de terrain.