998 resultados para Spectromètres par transformée de Fourier -- Méthodes de simulation
Resumo:
L’imagerie hyperspectrale (HSI) fournit de l’information spatiale et spectrale concernant l’émissivité de la surface des matériaux, ce qui peut être utilisée pour l’identification des minéraux. Pour cela, un matériel de référence ou endmember, qui en minéralogie est la forme la plus pure d’un minéral, est nécessaire. L’objectif principal de ce projet est l’identification des minéraux par imagerie hyperspectrale. Les informations de l’imagerie hyperspectrale ont été enregistrées à partir de l’énergie réfléchie de la surface du minéral. L’énergie solaire est la source d’énergie dans l’imagerie hyperspectrale de télédétection, alors qu’un élément chauffant est la source d’énergie utilisée dans les expériences de laboratoire. Dans la première étape de ce travail, les signatures spectrales des minéraux purs sont obtenues avec la caméra hyperspectrale, qui mesure le rayonnement réfléchi par la surface des minéraux. Dans ce projet, deux séries d’expériences ont été menées dans différentes plages de longueurs d’onde (0,4 à 1 µm et 7,7 à 11,8 µm). Dans la deuxième partie de ce projet, les signatures spectrales obtenues des échantillons individuels sont comparées avec des signatures spectrales de la bibliothèque hyperspectrale de l’ASTER. Dans la troisième partie, trois méthodes différentes de classification hyperspectrale sont considérées pour la classification. Spectral Angle Mapper (SAM), Spectral Information Divergence (SID), et Intercorrélation normalisée (NCC). Enfin, un système d’apprentissage automatique, Extreme Learning Machine (ELM), est utilisé pour identifier les minéraux. Deux types d’échantillons ont été utilisés dans ce projet. Le système d’ELM est divisé en deux parties, la phase d’entraînement et la phase de test du système. Dans la phase d’entraînement, la signature d’un seul échantillon minéral est entrée dans le système, et dans la phase du test, les signatures spectrales des différents minéraux, qui sont entrées dans la phase d’entraînement, sont comparées par rapport à des échantillons de minéraux mixtes afin de les identifier.
Resumo:
Les espèces végétales exotiques peuvent devenir envahissantes une fois naturalisées sur un nouveau territoire. La méthode de lutte la plus efficace étant la prévention, il est primordial de pouvoir prédire à l’avance si une nouvelle espèce introduite deviendra envahissante. Afin d’en arriver à un outil d’aide à la décision facile d’utilisation, il importe de développer des modèles plus simples, ayant peut-être un pouvoir explicatif moins grand, mais qui seront par contre plus faciles à comprendre et à utiliser. Il est possible de simplifier un modèle en utilisant moins de variables mais en les choisissant mieux, sur une base théorique. Le but de ce mémoire est donc de tester la force de la relation liant l’aire de répartition d’origine eurasiatique avec l’abondance et l’étendue de l’aire de répartition d’introduction en Amérique du Nord. La variable explicative principale, l’aire de répartition d’origine eurasiatique, a été utilisée avec deux autres covariables, soit le temps de résidence sur le continent nord-américain et le cycle de vie des espèces afin de bâtir un modèle statistique. Ce dernier a été testé à deux échelles géographiques, soit à l’échelle d’un pays entier, les États-Unis, et à une échelle plus régionale. L’utilisation de spécimens d’herbier et d’autres sources de données disponibles en ligne a permis de construire une base de données comportant un grand nombre d’espèces (N = 481). Les modèles ont révélé qu’avec peu de variables explicatives, il est possible d’expliquer une proportion importante du phénomène d’envahissement et d’abondance (> 40 %) dans certaines régions des États-Unis. Cette recherche contribue au développement d’un outil d’aide à la décision simple et démontre qu’il est possible d’expliquer une partie importante le phénomène d’abondance et d’étendue des espèces exotiques grâce à des données disponibles et à un petit nombre de variables bien sélectionnées.
Resumo:
L’électronique organique suscite un intérêt grandissant en recherche grâce aux nouvelles possibilités qu’elle offre pour faciliter l’intégration de dispositifs électroniques dans nos vies. Grâce à elle, il est possible d’envisager des produits légers, flexibles et peu coûteux à produire. Les classes majeures de dispositifs étudiées sont les cellules photovoltaïques organiques (CPO) et les transistors organiques à effet de champ (TOEC). Dans les dernières années, une attention particulière a été portée sur les méthodes de polymérisation des matériaux organiques entrant dans la fabrication de ces dispositifs. La polymérisation par (hétéro)arylation directe (PHAD) catalysée au Pd offre une synthèse sans dérivé organométallique utilisant simplement un lien C-H aromatique, ce qui facilite la purification, diminue le nombre d’étapes et rend possible la production de matériaux à plus faible coût. De plus, la PHAD permet la préparation de matériaux qui était difficile, voire impossible, à obtenir auparavant. Cependant, l’inconvénient majeur de la PHAD reste sa limitation à certaines classes de polymères possédant des monomères ayant des positions bloquées favorisant qu’une seule paire de liaisons C-H. Dans le cadre de ces travaux de doctorat, l’objectif général est d’étudier la polymérisation par PHAD afin d’accéder à des classes de monomères qui n’étaient pas envisageables auparavant et à étendre l’application de cet outil dans le domaine des polymères conjugués. Plus spécifiquement, nous avons étudié l’utilisation de groupements protecteurs et partants sur des unités de benzodithiophènes et de bithiophène-silylés. Suivant ces résultats, nos travaux ont porté sur la polymérisation de dérivés de bithiophènes avec des bromo(aryle)s, une classe de polymères fréquemment utilisée en électronique organique mais qui était jugée impossible à polymériser par PHAD auparavant. Cette étude a montré l’importance de contrôler la PHAD afin d’obtenir le polymère souhaité. Finalement, nous avons étudié l’effet du système catalytique sur le taux de β−ramifications lors de la synthèse de polymères à base de thiophènes. Dans cette dernière étude, nous avons démontré l’importance d’utiliser des outils de caractérisation adéquats afin de confirmer la qualité des polymères obtenus.
Resumo:
L'école d'hier faisait de la grammaire et de l'analyse un usage prépondérant dans l'apprentissage de la langue. Une longue série de règles appliquées dans des exercices structurés préparait une certaine élite d'étudiants à "faire leurs humanités". Le temps passe, les choses évoluent, la grammaire se transforme. Lorsque nous avons commencé à enseigner au niveau élémentaire, les cours de grammaire et d'analyse ne différaient pas tellement de ceux des générations antérieures. Puis vinrent les années '70. Un programme cadre est instauré. Les maîtres endossent la responsabilité de la méthode utilisée et de son application. Une période d'instabilité se creuse, dont les élèves sont les plus grandes victimes. Nous atteignons la période critique où l'on constate que peu d'enfants maîtrisent leur orthographe d'usage à la fin de leur cours primaire. À qui imputer la faute? Devons-nous revenir à un enseignement systématique de la grammaire? Cette période nous aura permis de constater l'inefficacité de nos leçons traditionnelles en vue d'acquisitions orthographiques chez nos enfants; préférence accordée à l'induction des règles grammaticales usuelles; élimination des connaissances grammaticales inutiles aux besoins immédiats des élèves. Telle Tut notre option en ce qui concerne la grammaire. Mais que dire de l'analyse logique? […]
Resumo:
Au cours de ces dernières années, les techniques d’échantillonnage équilibré ont connu un regain d’intérêt. En effet, ces techniques permettent de reproduire la structure de la population dans des échantillons afin d’améliorer l’efficacité des estimations. La reproduction de cette structure est effectuée par l’introduction des contraintes aux plans de sondage. Encore récemment, des nouvelles procédures d’échantillonnage équilibré ont été proposées. Il s’agit notamment de la méthode du cube présentée par Deville et Tillé (2004) et de l’algorithme réjectif de Fuller (2009). Alors que la première est une méthode exacte de sélection, la seconde est une approche approximative qui admet une certaine tolérance dans la sélection. Alors, après une brève présentation de ces deux méthodes dans le cadre d’un inventaire de pêcheurs, nous comparons à l’aide de simulations Monte Carlo, les plans de sondage produits par ces deux méthodes. Aussi, cela a été l’occasion pour nous de vérifier si ces méthodes modifient les probabilités de sélection des unités.
Resumo:
Ce travail présente une modélisation rapide d’ordre élévé capable de modéliser une configuration rotorique en cage complète ou en grille, de reproduire les courants de barre et tenir compte des harmoniques d’espace. Le modèle utilise une approche combinée d’éléments finis avec les circuits-couplés. En effet, le calcul des inductances est réalisé avec les éléments finis, ce qui confère une précision avancée au modèle. Cette méthode offre un gain important en temps de calcul sur les éléments finis pour des simulations transitoires. Deux outils de simulation sont développés, un dans le domaine du temps pour des résolutions dynamiques et un autre dans le domaine des phaseurs dont une application sur des tests de réponse en fréquence à l’arrêt (SSFR) est également présentée. La méthode de construction du modèle est décrite en détail de même que la procédure de modélisation de la cage du rotor. Le modèle est validé par l’étude de machines synchrones: une machine de laboratoire de 5.4 KVA et un grand alternateur de 109 MVA dont les mesures expérimentales sont comparées aux résultats de simulation du modèle pour des essais tels que des tests à vide, des courts-circuits triphasés, biphasés et un test en charge.
Resumo:
Cette thèse propose de développer des mécanismes déployables pour applications spatiales ainsi que des modes d’actionnement permettant leur déploiement et le contrôle de l’orientation en orbite de l’engin spatial les supportant. L’objectif étant de permettre le déploiement de surfaces larges pour des panneaux solaires, coupoles de télécommunication ou sections de station spatiale, une géométrie plane simple en triangle est retenue afin de pouvoir être assemblée en différents types de surfaces. Les configurations à membrures rigides proposées dans la littérature pour le déploiement de solides symétriques sont optimisées et adaptées à l’expansion d’une géométrie ouverte, telle une coupole. L’optimisation permet d’atteindre un ratio d’expansion plan pour une seule unité de plus de 5, mais présente des instabilités lors de l’actionnement d’un prototype. Le principe de transmission du mouvement d’un étage à l’autre du mécanisme est revu afin de diminuer la sensibilité des performances du mécanisme à la géométrie de ses membrures internes. Le nouveau modèle, basé sur des courroies crantées, permet d’atteindre des ratios d’expansion plans supérieurs à 20 dans certaines configurations. L’effet des principaux facteurs géométriques de conception est étudié afin d’obtenir une relation simple d’optimisation du mécanisme plan pour adapter ce dernier à différents contextes d’applications. La géométrie identique des faces triangulaires de chaque surface déployée permet aussi l’empilement de ces faces pour augmenter la compacité du mécanisme. Une articulation spécialisée est conçue afin de permettre le dépliage des faces puis leur déploiement successivement. Le déploiement de grandes surfaces ne se fait pas sans influencer lourdement l’orientation et potentiellement la trajectoire de l’engin spatial, aussi, différentes stratégies de contrôle de l’orientation novatrices sont proposées. Afin de tirer profit d’une grande surface, l’actionnement par masses ponctuelles en périphérie du mécanisme est présentée, ses équations dynamiques sont dérivées et simulées pour en observer les performances. Celles-ci démontrent le potentiel de cette stratégie de réorientation, sans obstruction de l’espace central du satellite de base, mais les performances restent en deçà de l’effet d’une roue d’inertie de masse équivalente. Une stratégie d’actionnement redondant par roue d’inertie est alors présentée pour différents niveaux de complexité de mécanismes dont toutes les articulations sont passives, c’est-à-dire non actionnées. Un mécanisme à quatre barres plan est simulé en boucle fermée avec un contrôleur simple pour valider le contrôle d’un mécanisme ciseau commun. Ces résultats sont étendus à la dérivation des équations dynamiques d’un mécanisme sphérique à quatre barres, qui démontre le potentiel de l’actionnement par roue d’inertie pour le contrôle de la configuration et de l’orientation spatiale d’un tel mécanisme. Un prototype à deux corps ayant chacun une roue d’inertie et une seule articulation passive les reliant est réalisé et contrôlé grâce à un suivi par caméra des modules. Le banc d’essai est détaillé, ainsi que les défis que l’élimination des forces externes ont représenté dans sa conception. Les résultats montrent que le système est contrôlable en orientation et en configuration. La thèse se termine par une étude de cas pour l’application des principaux systèmes développés dans cette recherche. La collecte de débris orbitaux de petite et moyenne taille est présentée comme un problème n’ayant pas encore eu de solution adéquate et posant un réel danger aux missions spatiales à venir. L’unité déployable triangulaire entraînée par courroies est dupliquée de manière à former une coupole de plusieurs centaines de mètres de diamètre et est proposée comme solution pour capturer et ralentir ces catégories de débris. Les paramètres d’une mission à cette fin sont détaillés, ainsi que le potentiel de réorientation que les roues d’inertie permettent en plus du contrôle de son déploiement. Près de 2000 débris pourraient être retirés en moins d’un an en orbite basse à 819 km d’altitude.
Resumo:
This work aims to define a typology of trawler f1eet in Sète, the main fishing harbour along the French Mediterranean coast, using several multivariate analysis methods. The fishing ships taken to account are represented by annual profiles of landing specific compositions. Five fishing strategies have been identified. A segmentation method using symbolic objects allows a formaI characterisation of the different strategies. These strategies are studied according to several general characteristics usually used for management rules elaboration (power, length, ship age). The typological analysis allows to characterise two main exploitation ways, one directed to the catch of a few species (Engraulis encrasicolus, Sardina pilchardus), the other characterised by the exploitation of a great diversity of species. By this way, it is possible to estimate how the catch of low represented species can significantly contribute to the exploitation of a resource.
Resumo:
Le présent rapport constitue une première présentation des résultats de l'Etude pilote des apports en contaminants par la Seine. Il est consacré aux métaux et à l'arsenic et traite de leurs niveaux de concentration, de leurs variations saisonnières et des flux à l'estuaire. Il comporte des fiches-annexes qui contiennent les méthodes de prélèvement, de filtration et de dosage ainsi que des résumés des résultats. A partir des conclusions, des recommandations sont faites quant aux méthodes à privilégier pour tirer les meilleurs enseignements du suivi des contaminants métalliques et de l'arsenic à la limite amont de l'estuaire de la Seine. Les données contenues dans ce rapport ont été produites par la Cellule de lutte contre la pollution (Service de navigation de la Seine), le laboratoire Chimie des contaminants et modélisation (IFREMER) et le Laboratoire municipal et régional de Rouen.
Resumo:
Les aspirateurs de turbines hydrauliques jouent un rôle crucial dans l’extraction de l’énergie disponible. Dans ce projet, les écoulements dans l’aspirateur d’une turbine de basse chute ont été simulés à l’aide de différents modèles de turbulence dont le modèle DDES, un hybride LES/RANS, qui permet de résoudre une partie du spectre turbulent. Déterminer des conditions aux limites pour ce modèle à l’entrée de l’aspirateur est un défi. Des profils d’entrée 1D axisymétriques et 2D instationnaires tenant compte des sillages et vortex induits par les aubes de la roue ont notamment été testés. Une fluctuation artificielle a également été imposée, afin d’imiter la turbulence qui existe juste après la roue. Les simulations ont été effectuées pour deux configurations d’aspirateur du projet BulbT. Pour la deuxième, plusieurs comparaisons avec des données expérimentales ont été faites pour deux conditions d’opération, à charge partielle et dans la zone de baisse rapide du rendement après le point de meilleur rendement. Cela a permis d’évaluer l’efficacité et les lacunes de la modélisation turbulente et des conditions limites à travers leurs effets sur les quantités globales et locales. Les résultats ont montrés que les structures tourbillonnaires et sillages sortant de la roue sont adéquatement résolus par les simulations DDES de l’aspirateur, en appliquant les profils instationnaires bidimensionnels et un schéma de faible dissipation pour le terme convectif. En outre, les effets de la turbulence artificielle à l’entrée de l’aspirateur ont été explorés à l’aide de l’estimation de l’intermittence du décollement, de corrélations en deux points, du spectre d’énergie et du concept de structures cohérentes lagrangiennes. Ces analyses ont montré que les détails de la dynamique de l’écoulement et de la séparation sont modifiés, ainsi que les patrons des lignes de transport à divers endroits de l’aspirateur. Cependant, les quantités globales comme le coefficient de récupération de l’aspirateur ne sont pas influencées par ces spécificités locales.
Resumo:
Introduction : Le syndrome d’aspiration méconiale (SAM) est une pathologie respiratoire du nouveau-né qui, dans les cas les plus sévères, peut rester réfractaire aux traitements couramment utilisés et nécessiter in fine le recours à une oxygénation membranaire extracorporelle. Le développement d’un ventilateur liquidien par l’équipe Inolivent a ouvert une nouvelle voie thérapeutique en rendant possible l’utilisation de la ventilation liquidienne totale (VLT) qui utilise un perfluorocarbone liquide afin d’assurer les échanges gazeux tout en effectuant un lavage pulmonaire thérapeutique. En 2011, l’équipe Inolivent a montré la supériorité de la VLT pour retirer le méconium et assurer les échanges gazeux de façon plus efficace que le traitement contrôle, le lavage thérapeutique avec une solution diluée de surfactant exogène (S-LBA). À ce jour, il n’a jamais été montré la possibilité de ramener des agneaux en respiration spontanée au décours d’une VLT pour le traitement d’un SAM sévère. Les objectifs de cette étude sont i) montrer la possibilité de ramener des agneaux nouveau-nés en respiration spontanée sans aide respiratoire après le traitement d’un SAM sévère par VLT, ii) comparer l’efficacité avec le lavage par S-LBA. Méthodes : 12 agneaux nouveau-nés anesthésiés et curarisés ont été instrumentés chirurgicalement. Après l’induction d’un SAM sévère, les agneaux ont subi un lavage pulmonaire thérapeutique soit par VLT (n = 6) ou par S-LBA (n = 6). Les agneaux ont été sevrés de toute ventilation mécanique et suivit en respiration spontanée durant 36 h. Résultats : Il est possible de ramener en respiration spontanée des agneaux nouveau-nés traités par VLT pour le traitement d’un SAM sévère. Le temps nécessaire au sevrage de la ventilation mécanique conventionelle a été plus court chez le groupe S-LBA. Conclusion : Notre étude met en lumière pour la première fois connue à ce jour, la possibilité de ramener en respiration spontanée des agneaux nouveau-nés suivant une VLT dans le traitement d’un SAM sévère. Ces résultats très importants ouvrent la voie à des études sur l’utilisation de la VLT dans le traitement de détresses respiratoires aigües.
Resumo:
National audience
Resumo:
International audience
Resumo:
Introduction : Un hypométabolisme du glucose au cerveau peut apparaître des décennies avant le diagnostic de maladie d’Alzheimer. Pourtant, le métabolisme des cétones, le carburant alternatif principal au glucose, n’est pas altéré, autant chez les personnes plus âgées que chez les personnes atteintes de la maladie d’Alzheimer. Les méthodes connues (diète cétogène, jeûne, huile de triglycérides de moyennes chaînes) pour augmenter la production de cétones comportent leurs inconvénients. L’objectif de ces projets était de vérifier l’efficacité de produits commerciaux vendus à cet effet et d’évaluer d’autres molécules qui pourraient être utilisées pour leur propriété cétogène. Ce sont des suppléments alimentaires pouvant servir de substrat pour la cétogenèse (butyrate, monoglycéride d’octanoate (O-MAG), leucine) ou de facilitateur du transport des acides gras (carnitine). Méthodes : Pour ce faire, les participants devaient se présenter au laboratoire pour plusieurs demi-journées d’étude d’une durée de 4 heures. Lors de ces journées, un des suppléments leur était servi avec un déjeuner et des prises de sang étaient effectuées toutes les 30 minutes. Résultats : Le produit commercial contenant des MCT, le butyrate, l’O-MAG et la leucine ont permis d’augmenter respectivement les concentrations maximales en cétones plasmatiques de 568, 226, 67 et 70 µmol/L (p≤0,05) par rapport au contrôle. De plus, la concentration plasmatique en octanoate était corrélée significativement avec la concentration sanguine d’acétoacétate (r=0,85 ; p <0,0001) et de β-hydroxybutyrate (r=0,58 ; p=0,01). L’aire sous la courbe par gramme de produit ingéré montre que le butyrate était le supplément cétogène le plus efficace et était plus cétogène que le produit commercial, l’O-MAG et la leucine (p=0,009). Discussion : Le butyrate était 3 fois plus cétogène que tous les autres suppléments testés. Par contre, son ingestion a causé quelques effets secondaires à certains participants. La leucine a été le seul supplément à ne créer aucun inconfort chez les participants. Il faudrait donc étudier la possibilité de combiner plusieurs molécules dans un supplément chimiquement pensé pour être le plus efficace possible et pour être intéressant lors d’une utilisation quotidienne.
Resumo:
Résumé : Introduction: La douleur chronique et les problèmes de sommeil ont un impact significatif sur la qualité de vie. La prévalence de ces deux conditions augmente substantiellement avec l’âge. L’objectif de cette étude était d’évaluer la faisabilité d’une étude randomisée, contrôlée par placebo et de recueillir des données sur l’efficacité de la stimulation transcrânienne par courant direct (tDCS) pour réduire la douleur et améliorer le sommeil chez des aînés souffrant de douleur chronique d’origines musculo-squelettique. Méthodes: Quatorze patients souffrant de douleur chronique et de problèmes de sommeil ont reçu cinq séances quotidiennes consécutives de tDCS anodique appliquée au cortex moteur primaire (2 mA, 20 minutes) ou cinq séances de tDCS simulée de manière randomisée. L’intensité de la douleur était mesurée avec une échelle visuelle analogue et les paramètres de sommeil avec l’actigraphie. Pendant toute la durée de l’étude, des journaux de bord de douleur et de sommeil étaient aussi utilisés afin de mesurer l'effet de la tDCS sur la douleur et le sommeil du quotidien des participants. Résultats: Les résultats indiquent que la tDCS réelle engendre une analgésie de 59 %, alors que la tDCS simulée ne réduit pas la douleur (p < 0,05). Par contre, aucun changement n’a été observé au niveau des paramètres de sommeil (tous les p ≥ 0,18). Conclusion: Il appert que cinq séances de tDCS anodique appliquée au niveau du cortex moteur primaire seraient efficaces pour réduire la douleur des aînés souffrant de douleur chronique, mais pas pour améliorer leur sommeil. De futures études seront nécessaires afin de déterminer si d’autres paramètres de stimulation pourraient avoir un impact sur le sommeil et si ces résultats peuvent être reproduits en utilisant un plus grand nombre de patients.