7 resultados para Traitement sans fusion
em Université Laval Mémoires et thèses électroniques
Resumo:
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.
Resumo:
La présente thèse examine les associations entre les dimensions du TDAH et les habiletés en lecture sur les plans phénotypique, génétique et cognitif. En premier lieu, les associations entre les dimensions du TDAH (inattention et hyperactivité/impulsivité) et les habiletés en lecture (décodage et compréhension en lecture) chez des enfants au début du primaire (6-8 ans) ont été examinées. Les résultats révèlent des associations similaires. Toutefois, seules celles entre l’inattention et les habiletés en lecture demeurent après que l’hyperactivité/impulsivité, les symptômes de trouble du comportement et les habiletés non verbales aient été contrôlés. De plus, les associations entre l’inattention et les habiletés en lecture s’expliquent en grande partie par des facteurs génétiques. En second lieu, les associations entre les dimensions du TDAH et les habiletés en lecture (lecture de mots et exactitude/vitesse lors de la lecture d’un texte) ont été étudiées à 14-15 ans. Seule l’inattention demeure associée aux habiletés en lecture après que l’hyperactivité/impulsivité, les habiletés verbales et les habiletés non verbales aient été contrôlées. L’inattention et les habiletés en lecture sont aussi corrélées sur le plan génétique, mais ces corrélations deviennent non significatives lorsque les habiletés verbales sont contrôlées. En dernier lieu, des habiletés cognitives ont été étudiées comme mécanismes sous-jacents potentiels de l’association entre l’inattention et les habiletés en lecture (décodage et compréhension en lecture) à l’enfance. Il apparait que la conscience phonologique, la vitesse de dénomination de chiffres, le traitement temporel bimodal et le vocabulaire sont des médiateurs de l’association entre l’inattention et le décodage alors que la conscience phonologique, la vitesse de dénomination de chiffres et de couleurs et le vocabulaire sont des médiateurs de l’association entre l’inattention et la compréhension en lecture. De plus, des facteurs génétiques communs ont été observés entre certains médiateurs (conscience phonologique, vitesse de dénomination des chiffres et traitement temporel bimodal), l’inattention et le décodage. Somme toute, la présente thèse montre que des facteurs génétiques expliquent en partie ces associations à l’enfance et l’adolescence. Des médiateurs cognitifs sous-tendent ces associations, possiblement par des processus génétiques et environnementaux qui devront être précisés dans le futur.
Resumo:
Cette recension systématique analyse 19 essais cliniques randomisés contre placebo qui mesurent l’effet de suppléments d’oméga-3, de vitamines B (B6, B9 et B12), ou de vitamines antioxydantes (C et E), sur le fonctionnement cognitif d’aînés avec ou sans trouble cognitif. Les bases de données consultées pour la recherche des articles sont Cochrane Library, Current Contents, EBSCO, EMBASE, MEDLINE et PsycNet. Les mots clés utilisés sont «alzheimer’s disease», or «mild cognitive impairment», or «cognitive decline»; and «dietary supplements» or «vitamin C», or «vitamin E», or «alpha-tocopherol», or «vitamin B», or «cobalamin», or «folic acid», or «omega 3», or «fatty acids»; and «prevention», or «treatment». La recherche inclut les articles publiés en anglais et en français, de 1999 à juin 2014. Les différents suppléments à l’étude sont bien tolérés et sécuritaires. Des résultats significatifs sont enregistrés sur des mesures cognitives suite à la supplémentation en oméga-3, et en vitamines B, chez des participants sans trouble cognitif ou avec un diagnostic de trouble cognitif léger. Chez les participants atteints de la maladie d’Alzheimer, des résultats significatifs sont surtout enregistrés sur des mesures fonctionnelles, de symptômes psychologiques et comportementaux, ou de qualité de vie, suite à l’administration d’un supplément nutritionnel. La présence d’une hétérogénéité importante dans la méthodologie des essais cliniques limite toutefois les conclusions quant à la pertinence clinique de ces traitements. L’établissement de lignes directrices suite à un consensus d’experts s’avère nécessaire afin d’uniformiser la recherche sur cette nouvelle piste d’intervention dans la prévention et le traitement de la maladie d’Alzheimer.
Resumo:
INTRODUCTION : La dyscalculie est un déficit spécifique d’apprentissage des mathématiques dont la prévalence s’étend de 1 à 10 %. La dyscalculie a des répercussions sur la scolarité et sur la vie quotidienne pouvant persister jusqu’à l’âge adulte et ainsi nuire à l’insertion professionnelle. Il existe actuellement deux grandes hypothèses cognitives pour expliquer la dyscalculie développementale : l’hypothèse d’un trouble cognitif général tel qu’un trouble de la mémoire de travail et l’hypothèse d’un trouble cognitif spécifiquement numérique. OBJECTIFS : L’objectif général de cette thèse doctorale est d’évaluer les déficits cognitifs numériques impliqués dans la dyscalculie développementale chez des enfants franco-québécois âgés entre huit et neuf ans, scolarisés en 3e année du primaire (1ère année du 2e cycle). Dans un premier temps, la thèse vise à recenser les écrits (étude 1) portant sur les déficits cognitifs numériques impliqués dans la dyscalculie. Ensuite, elle a pour objectifs spécifiques l’étude des capacités de traitement des quantités non symboliques (étude 2) et symboliques arabe et orale (étude 3), ainsi que de l’intégrité des représentations numériques sous forme de ligne numérique (étude 4). MÉTHODE : Des études comparatives d’un groupe d’enfants en difficulté mathématique (groupe dyscalculique) et d’un groupe d’enfants sans difficulté mathématique ont été réalisées. Des tâches faisant intervenir le code analogique (i.e. ensemble de points), le code arabe, le code oral, et la ligne numérique des nombres ont été administrées dans le but de mesurer les capacités de traitement, de production, et de reconnaissance des nombres. RÉSULTATS : La recension de la littérature permet d’établir qu’il n’existe aucun consensus quant aux déficits cognitifs numériques impliqués dans la dyscalculie (étude 1). Les résultats des études expérimentales montrent que les enfants dyscalculiques présentent des difficultés à traiter avec précision les petites quantités analogiques (étude 2) mais des habiletés préservées pour traiter approximativement les grandes quantités (étude 4). Ils présentent aussi des difficultés à traiter les nombres symboliques (arabe, oral) qui se manifestent par des atteintes de reconnaissance, de traitement et de production des nombres (études 3 et 4). Leur acuité numérique est également plus faible lorsqu’ils doivent traiter cognitivement les nombres symboliques sur une ligne numérique (étude 4). CONCLUSION : Les enfants dyscalculiques présentent un déficit du sens du nombre au niveau du traitement des petites quantités par le Système Numérique Précis, ainsi qu’un déficit de traitement des nombres symboliques. Ce déficit se manifeste à la fois par un déficit de reconnaissance, un déficit d’accès au sens du nombre via les codes symboliques et une acuité plus faible de la ligne numérique lorsqu’elle implique les nombres symboliques.
Resumo:
L’agrobiodiversité est le résultat de la domestication, de l’amélioration des caractères génétiques, de la conservation et de l’échange des semences par les agriculteurs depuis la première révolution agricole, il y a près de 10 000 ans. Toutefois, cette diversification agricole s’amenuise, s’érode. Cette érosion touche désormais les espèces végétales majeures. Plusieurs variétés de plantes cultivées sont abandonnées au profit de variétés artificialisées et uniformisées. Suivant une logique plus économique, les ressources génétiques végétales ou phytogénétiques, d’abord qualifiées de patrimoine commun de l’humanité, deviennent rapidement des biens prisés par l’industrie biotechnologique confortant les pays riches en biodiversité, mais économiquement faibles, à subordonner cette richesse au principe de la souveraineté permanente sur les ressources naturelles. Ce principe à la base du droit international a permis aux États hôtes de contrôler l’accès aux ressources biologiques sur leur territoire, mettant ainsi fin au pillage de celles-ci, mais également au libre accès pour tous à la ressource. À l’évidence, la nature hybride des ressources phytogénétiques enclenche un processus complexe d’exclusivismes et de prérogatives. D’une part, ces ressources composent la base de notre alimentation et à ce titre elles intéressent l’humanité entière, d’autre part, elles sont la matière première utilisée par les oligopoles semenciers, une double vocation qui suscite un partage antagonique à plusieurs égards. Cette thèse analyse les perspectives offertes par le droit international public afin de réconcilier ces positions au bénéfice de la sécurité alimentaire mondiale durable, et s’interroge sur le meilleur cadre juridique que le droit international puisse attribuer aux ressources phytogénétiques afin d’améliorer la circulation et la disponibilité des denrées agricoles et alimentaires. À cet effet, l’entrée en vigueur du Traité international sur les ressources phytogénétiques pour l’alimentation et l’agriculture va créer une sorte de système compromissoire conciliant dans un même souffle, l’intérêt général et l’appropriation privative au profit de la sécurité alimentaire mondiale durable : le Système multilatéral d’accès et de partage des avantages. Un dispositif ad hoc exceptionnel qui facilite l’accès à une partie négociée de ces ressources ainsi que le partage juste et équitable des avantages qui découlent de leur utilisation entre tous les usagers. Le Système multilatéral est la clé de voûte du Traité. Par le truchement de ce système, le Traité matérialise un ordre juridique raffiné et complexe qui opère une récursivité des ressources phytogénétiques vers le domaine public international, et par incidence, invite à considérer ces ressources comme des biens communs libres d’accès pour la recherche, l’amélioration et le réensemencement. Outre cette requalification, ce système ouvrira la voie à une nouvelle forme de gestion fiduciaire octroyant des droits et impliquant des responsabilités à l’égard d’un groupe d’usagers particuliers.
Resumo:
La plupart des processus cellulaires et biologiques reposent, à un certain niveau, sur des interactions protéine-protéine (IPP). Leur manipulation avec des composés chimiques démontre un grand potentiel pour la découverte de nouveaux médicaments. Malgré la demande toujours croissante en molécules capables d’interrompre sélectivement des IPP, le développement d’inhibiteurs d’IPP est fortement limité par la grande taille de la surface d’interaction. En considérant la nature de cette surface, la capacité à mimer des structures secondaires de protéines est très importante pour lier une protéine et inhiber une IPP. Avec leurs grandes capacités peptidomimétiques et leurs propriétés pharmacologiques intéressan-tes, les peptides cycliques sont des prototypes moléculaires de choix pour découvrir des ligands de protéines et développer de nouveaux inhibiteurs d’IPP. Afin d’exploiter pleinement la grande diversité accessible avec les peptides cycliques, l’approche combinatoire «one-bead-one-compound» (OBOC) est l’approche la plus accessible et puissante. Cependant, l’utilisation des peptides cycliques dans les chimiothèques OBOC est limitée par les difficultés à séquencer les composés actifs après le criblage. Sans amine libre en N-terminal, la dégradation d’Edman et la spectrométrie de masse en tandem (MS/MS) ne peuvent pas être utilisées. À cet égard, nous avons développé de nouvelles approches par ouverture de cycle pour préparer et décoder des chimiothèques OBOC de peptides cycliques. Notre stratégie était d’introduire un résidu sensible dans le macrocycle et comme ancrage pour permettre la linéarisation des peptides et leur largage des billes pour le séquençage par MS/MS. Tout d’abord, des résidus sensibles aux nucléophiles, aux ultraviolets ou au bromure de cyanogène ont été introduits dans un peptide cyclique et leurs rendements de clivage évalués. Ensuite, les résidus les plus prometteurs ont été utilisés dans la conception et le développement d’approches en tandem ouverture de cycle / clivage pour le décodage de chimiothèques OBOC de peptides cycliques. Dans la première approche, une méthionine a été introduite dans le macrocycle comme ancrage pour simultanément permettre l’ouverture du cycle et le clivage des billes par traitement au bromure de cyanogène. Dans la seconde approche, un résidu photosensible a été utilisé dans le macrocycle comme ancrage pour permettre l’ouverture du cycle et le clivage suite à une irradiation aux ultraviolets. Le peptide linéaire généré par ces approches peut alors être efficacement séquencé par MS/MS. Enfin, une chimiothèque OBOC a été préparée et criblée la protéine HIV-1 Nef pour identifier des ligands sélectifs. Le développement de ces méthodologies permttra l’utilisation de composés macrocycliques dans les chimiothèques OBOC et constitue une contribution importante en chimie médicinale pour la découverte de ligands de protéines et le développement d’inhibiteurs d’IPP.
Resumo:
Le forgeage de préformes fabriquées par métallurgie des poudres nous permet d’atteindre une densification voisine de la densité théorique ce qui a comme incidence directe une amélioration substantielle des propriétés mécaniques finales des pièces, notamment la résistance en fatigue. La démarche préconisée pour améliorer cette performance critique de pièces forgées par métallurgie des poudres consiste à optimiser leurs caractéristiques métallurgiques et leur densité concomitante. À ce propos, une nouvelle formulation d’acier MP a été développée et caractérisée. La stratégie de développement portait sur l’utilisation d’éléments de microalliage préalliés, comme le vanadium et le niobium. Pour ce faire, on a optimisé le paramètre de mise en œuvre primordial, qui est la température de forgeage, afin d’obtenir une fine taille de grains à la fin du cycle du traitement réalisé accompagnée d’une densité élevée des pièces forgées. Une série de traitements d’austénisation sur une gamme étendue de température variant entre 900 °C à 1250 °C a été effectuée ce qui nous a permis par la suite de connaître, pour chaque mélange, l’évolution de la taille des grains en fonction de la température d’austénisation. La nouvelle formulation de composition chimique a démontré un impact marqué quant au contrôle de la taille de grains en fonction de la température d’austénitisation. Une étude comparative nous a permis d’identifier la température de forgeage la plus appropriée pour ce type de pièces et de dégager la méthodologie à suivre en fonction des propriétés mécaniques et microstructurales.