346 resultados para Psychophysique humaine
Resumo:
La dihyrofolate réductase de type II R67 (DHFR R67) est une enzyme bactérienne encodée par un plasmide donc aisément transmissible. Elle catalyse la réaction de réduction du dihydrofolate (DHF) en tétrahydrofolate (THFA) essentiel pour la prolifération cellulaire. La DHFR R67 est une enzyme qui dépend du cofacteur NADPH. La DHFR R67 est différente, structurellement et génétiquement, de l’enzyme DHFR chromosomale présente chez tous les organismes et elle est résistante au triméthoprime (TMP) qui est largement utilisé dans les traitements antibactériens chez l’Homme. Aucun inhibiteur sélectif contre la DHFR R67 n’est actuellement répertorié. Le but de cette étude a été d’identifier des molécules qui pourront inhiber la DHFR R67 sélectivement, sans affecter la DHFR humaine (DHFRh). La vérification de la qualité des essais enzymatiques en conditions déterminées pour le criblage d’inhibiteurs sur plusieurs lectrices à plaques a identifié des appareils appropriés pour l’analyse. L’étude de l’activité enzymatique de la DHFR R67 et de la DHFRh en présence des solvants organiques et liquides ioniques (LIs), comme des co-solvants pour le criblage rationnel d’inhibiteurs, a montré que certains LIs peuvent servir de milieu alternatif pour les essais enzymatiques. Le criblage rationnel basé sur l’approche du design d’un inhibiteur à partir de petites molécules, a révélé des molécules primaires qui inhibent la DHFR R67 de façon faible, mais sélective. Le test des composés biologiquement actifs qui comprennent des petits fragments, a montré l’augmentation de l’affinité entre la DHFR R67 et les composés testés. Trois composés ont été déterminés comme des inhibiteurs sélectifs prometteurs pour la DHFR R67.
Resumo:
En vue de saisir la pensée kantienne dans toute sa virulence, on ne peut jamais faire abstraction de la place éminente de Jean-Jacques Rousseau dans cette philosophie qui ne cesse pas à marquer, à définir et à poser des jalons de la pensée moderne. À cet égard, si le Genevois communique les grandes leçons de sa théorie de l’homme sous la guise d’une éducation, il s’agit ici non pas d’une philosophie de l’éducation mais bien plus d’une philosophie comme éducation. C’est effectivement cette thèse que Kant reprend, suit et enrichie d’une manière sui generis pour renverser l’ordre théorique mais surtout pratique de religion-moralité-devoir et libérer une fois pour toutes la morale des dogmes théologiques et finalement pour édifier une philosophie pratique comme l’éducation de l’espèce humaine. Le but de cette étude est de jeter quelques lumières sur la place sans pareille de Jean-Jacques Rousseau dans la philosophie kantienne de l’éducation.
Resumo:
Pour respecter les droits d'auteur, la version électronique de ce mémoire à été dépouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès Sciences (M.Sc.) en sciences infirmières
Resumo:
L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.
Resumo:
La présente étude s’intéresse aux mécanismes neuronaux qui sous-tendent la rétention en mémoire à court terme auditive (MCTA) en utilisant la technique des potentiels reliés aux événements (PRE). Dans l’Expérience 1, nous avons isolé une composante de PRE, nommée SAN pour « sustained anterior negativity ». La SAN augmentait en amplitude négative plus le nombre de sons à maintenir en MCTA augmentait. Cet effet de charge était présent, bien que la durée totale des stimuli restait la même entre les conditions. L’effet de charge observé par la SAN dans l’Expérience 1 disparaissait dans l’Expérience 2, où les mêmes sons étaient utilisés, mais où la mémorisation de ceux-ci n’était plus requise. Finalement, dans l’Expérience 3, la tâche de MCTA a été effectuée avec et sans suppression articulatoire durant l'intervalle de rétention. L’effet de charge trouvé dans l’Expérience 1 était de nouveau observé, lorsque les participants faisaient la tâche de suppression articulatoire ou non. Ces résultats suggèrent que la SAN reflète l'activité nécessaire pour le maintien des objets acoustiques dans un système de MCTA qui serait distinct de la répétition phonologique.
Resumo:
HHV-6 is a ubiquitous human herpesvirus. Most individuals become infected at the age of 2 years. Primary infection by the virus causes a self-limiting febrile illness called exanthem subitum or roseola. In adults, primary infection may cause mononucleosis-like illnesses. The infection usually remains latent in healthy individuals, but often reactivates in immunocompromised individuals, for example, transplant patients and AIDS patients. The virus has also been associated with cancers and lymphoproliferative disorders. The virus encodes two proteins that interact with p53. However, little is known concerning the impact of the virus on cell cycle progression in human cells. The investigations reported in the thesis were focused on this issue. We show here that that HHV-6 infection delays the cell cycle progression in human T cell line HSB-2, as well as in primary human T cells and causes their accumulation in S and G2/M phase. By degrading the viral DNA in the virus-infected cells, we show that the infected cells accumulate in the G2/M and not in the S phase. We observed an increase in the kinase activity of cdc2 in virus-infected cells despite lower levels of its catalytic partners, cyclin A and cyclin B. We show here that the viral early antigen p41 associates with, and increases the kinase activity of, CDK1. Our studies have shown that there is a drastic reduction of p21 protein, despite the virus-induced stabilization and activation of p53 suggesting that p53 may be transcriptionally inactivated in the virus-infected cells. This decrease of p21 in infected cells was partially restored by proteasome inhibitors. These results suggest that HHV-6 causes perturbations in the normal progression of cell cycle in human T cells. Autophagy is a physiological cell process during which old cellular constituents and long-lived proteins in cells are degraded. This process is regulated in a cell cycle-dependent manner. We show here that infection with HHV-6 induces autophagy in HSB-2 cells. This was shown by the induction of LC-3 II as well as by the appearance of autophagic vacuoles in the virus-infected cells. However, we found that the virus inhibits fusion between autophagic vacuoles and lysosomes formed in infected cells, thus evading the autophagic response of infected host cells. Finally we tried to investigate replication of the virus in human cells in the absence of P53; a tumor suppressor gene which is also known as "the guardian of the genome ". During these investigations, we found that that inhibition of p53 gene expression mediated by siRNA as well as its inhibition by pharmacological inhibitors leads to massive cell death in human T cell line HSB-2 that carries a wild-type p53. We show that this death also occurs in another cell line CEM, which carries a transcriptionally mutated p53. Interestingly, the cell death could be prevented by pharmacological inhibitors of autophagy and necroptosis. Taken together, our results provide important novel insights concerning the impact of HHV-6 on cell cycle regulation and autophagy as well as of basal level p53 in cell survival.
Resumo:
La douleur articulaire associée à l’arthrose est un problème clinique majeur, spécialement chez les personnes âgées. L’intensité de la douleur est souvent amplifiée lors de mouvement de l’articulation et principalement lors du soutien de la charge corporelle sur le membre lésé. Malheureusement, les traitements pharmacologiques proposés sont trop souvent associés à des effets secondaires néfastes et à une inefficacité pour le soulagement de la douleur à long terme. Divers modèles murins sont utilisés en laboratoire de recherche pour des études précliniques de molécules aux propriétés analgésiques. Une évaluation comparative de la réponse comportementale douloureuse des animaux d’un modèle d’instabilité articulaire induit par le sectionnement du ligament croisé antérieur accompagné d’une méniscectomie partielle (le modèle ACLT+pMMx) et d’un modèle de dégénérescence articulaire induite par le monoiodoacetate (le modèle MIA) a permis de sélectionner un modèle approprié pour la continuité du projet. Les deux modèles ont démontré des lésions tissulaires, mais le modèle MIA a démontré une réponse douloureuse plus prononcée que le modèle ACLT+pMMx. Par l’analyse de la démarche, le modèle MIA a démontré une boiterie claire dans le patron de la démarche des animaux qui est associée à une lésion unilatérale. Le modèle MIA a donc été choisi pour la suite du projet. La problématique principale dans la recherche sur la douleur associée à l’arthrose est une compréhension incomplète des mécanismes de douleur responsables de l’induction et du maintien de l’état de douleur. Il devient donc nécessaire d’améliorer nos connaissances de ces mécanismes en effectuant une caractérisation plus approfondie des modèles animaux employés pour l’évaluation de stratégies pharmacologiques analgésiantes. Afin de bien comprendre le modèle MIA, une caractérisation des événements moléculaires centraux lors de la progression du processus dégénératif des structures articulaires de ce modèle s’est effectuée aux jours 3, 7, 14, 21 et 28 post injection. Des mécanismes hétérogènes qui modulent l’information nociceptive en fonction de la progression temporelle de la pathologie ont été observés. Les changements du contenu i spinal des neuropeptides sélectionnés (substance P, CGRP, dynorphine A et Big dynorphine) ont débuté sept jours suivant l’injection de MIA. L’observation histologique a démontré que les dommages structuraux les plus importants surviennent entre les jours 14 et 21. C’est entre les jours 7 et 21 que les lésions démontrent le plus de similarités à la pathologie humaine. Cela suggère que lors d’une évaluation préclinique d’un traitement pharmacologique pour pallier la douleur articulaire utilisant le modèle MIA, l’étude doit tenir compte de ces événements afin de maximiser l’évaluation de son efficacité. Puisque les traitements pharmacologiques conventionnels proposés pour le soulagement de la douleur ne font pas l’unanimité en terme d’efficacité, d’effets non désirés et de coûts monétaires parfois onéreux, les molécules de dérivés de plante deviennent une alternative intéressante. L’eugénol, le principal constituant de l’huile de clou de girofle, a été administré oralement pour une période de 28 jours chez des rats ayant reçu l’injection intra-articulaire de MIA afin d’évaluer son efficacité pour le traitement de la douleur articulaire. L’eugénol à une dose de 40 mg/kg s’est révélé efficace pour l’amélioration du patron de la démarche des animaux ainsi que pour la diminution de l’allodynie mécanique secondaire. De plus, les concentrations spinales de neuropeptides pronocicepteurs ont diminué chez les animaux traités. Par une évaluation histopathologique, l’eugénol n’a démontré aucune évidence d’effets toxiques suite à une administration per os quotidienne pour une période prolongée. Ces résultats suggèrent le potentiel thérapeutique complémentaire de la molécule d’eugénol pour le traitement de la douleur articulaire.
Resumo:
Cette thèse porte sur le recours à des mesures restrictives du commerce par le Canada comme moyen de lutte contre le travail dangereux des enfants, dans un contexte de mise en œuvre de la responsabilité internationale d’un État en cas de non respect de la Convention de l’Organisation internationale du travail nº 182 sur les pires formes de travail des enfants. Bien que la capacité d’imposer des telles mesures se rapportant à des situations de travail dangereux des enfants soit analysée, essentiellement, du point de vue du droit de l’Organisation internationale du commerce (OMC), cette étude reste circonscrite à l’application de la Convention OIT 182. De plus, cette thèse veut fournir une analyse prospective de nature spéculative portant sur l’opportunité de recourir à de telles mesures en discutant de leurs éventuelles conséquences sur les enfants qu’on vise à protéger par ce moyen. La première partie de la thèse s’intéresse à la légalité d’éventuelles sanctions commerciales imposées par le Canada afin d’amener un pays membre de l’OMC dont il importe des produits à respecter la Convention OIT 182. La légalité de ces sanctions est abordée tant du point de vue du régime général du GATT que de celui des exceptions générales. Du point de vue du régime général, l’analyse porte notamment sur l’article III de cet accord relatif au principe du traitement national. Une fois constatée leur illicéité à l’égard de l’article III du GATT, seul l’article XX de cet accord peut être invoqué pour permettre le recours à ces mesures. Nous nous attardons plus particulièrement aux exceptions de l’article XX relatives à la protection de la moralité publique et à celle de la protection de la vie et de la santé humaine. La thèse aborde les conditions auxquelles est assujetti le recours aux exceptions de l’article XX retenues comme pertinentes, notamment celles de la « nécessité » des mesures et du respect des compétences étatiques. En outre, cette étude analyse les conditions d’application des mesures restrictives du commerce découlant du préambule de l’article XX. En ce qui concerne l’exception relative à la moralité publique, cette notion est discutée dans un contexte national spécifique, soit celui du Canada. La seconde partie de la thèse s’intéresse à l’opportunité de recourir à des mesures commerciales restrictives et leurs conséquences éventuelles sur les enfants dont la protection est recherchée. La démarche, qui est éminemment prospective, prend la forme d’une étude de cas portant sur un secteur productif qui n’a jamais connu dans les faits des sanctions commerciales, soit la production floricole en Équateur. Il s’agit d’un secteur caractérisé par la présence d’enfants en situation de travail dangereux impliqués dans la production de biens destinés à l’exportation. Notre recherche est de type exploratoire. De ce fait, elle ne vise pas à formuler des conclusions fermes quant aux effets des sanctions, mais plutôt à déceler les effets potentiellement bénéfiques ou nuisibles que les mesures restrictives du commerce pourraient avoir sur les enfants exploités, ainsi qu’à évaluer la contribution des sanctions commerciales à la solution du problème.
Resumo:
La présente étude porte sur les aspects Nature-Culture relatifs à l’émergence de variations interindividuelles quant à la capacité universelle de régulation d’une émotion primaire, la tristesse. Cette problématique représente un exemple du lien entre la conception évolutionniste d’une nature humaine universelle, innée et génétiquement prescrite, mais susceptible de variation dans son expression en fonction d’expériences individuelles liées aux processus de socialisation et d’enculturation. À l’aide du devis génétiquement informatif des jumeaux, nous nous sommes d’abord penchés sur l’étiologie gènes-environnement de la dépression à l’enfance, une dysfonction du système de régulation émotionnelle de la tristesse. Puis, nous nous sommes interrogés quant à l’influence du traitement et de l’état psychique maternels sur cet aspect du développement émotionnel de l’enfant. Nos analyses de la symptomatologie dépressive indiquent une absence d’influence génétique dans le développement de ce trouble de l’humeur. Les variations individuelles de la régulation de la tristesse reposent ainsi uniquement sur les effets de l’environnement. Nos résultats révèlent également l’existence d’une relation importante entre l’état psychique de la mère, évalué lorsque les jumeaux avaient cinq mois, et la présence de symptômes dépressifs chez ces derniers mesurés huit ans plus tard. L’état psychique de la mère est considéré comme l’un des meilleurs indicateurs de la qualité du traitement maternel en bas âge. Nos mesures directes des comportements maternels envers le nourrisson et le développement ultérieur du trouble de dépression indiquent également l’existence de tendances statistiques allant dans le sens de notre hypothèse d’un traitement maternel sous-optimal contribuant au développement de dysfonctions émotionnelles ultérieures.
Resumo:
Si, depuis son apparition, la télévision suscite de nombreuses réactions de mépris chez les élites cultivées, son emprise sur l’individu et la vie en société est indéniable. La littérature ne pouvait manquer de s’intéresser à la nature et à l’évolution de ce média si discuté avec lequel elle entretient des relations plus complexes qu’il n’y paraît. Cette étude porte sur deux romans qui proposent une représentation très élaborée et singulière du petit écran et de son rôle, La Télévision de Jean-Philippe Toussaint et Que la paix soit avec vous de Serge Joncour. Chacun d’eux fait l’objet d’un chapitre. En plus de procéder à une critique incisive du média télévisuel, ces fictions mettent en évidence ses liens avec l’imaginaire social contemporain. Toussaint accorde une importance particulière aux bouleversements socioculturels causés par la télévision et montre qu’elle a si bien investi la place de la vie quotidienne que les mondes réel et virtuel risquent désormais constamment de se confondre. Joncour décrit avec soin l’influence qu’elle exerce sur notre perception de la réalité et critique la lecture superficielle du monde qu’elle impose. Cependant qu’elles effectuent ce travail critique, les deux œuvres se rejoignent pour souligner son pouvoir de fascination et la présentent telle une tentatrice redoutable. Parce qu’elle part d’une lecture interne des textes pour les mettre en relation avec la façon dont la télévision, en tant que dispositif sémiotique, c’est-à-dire en tant que machine à produire du sens, informe la réalité humaine, notre étude se situe sur le terrain de la sociocritique des textes.
Resumo:
Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.
Resumo:
L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.
Resumo:
Le puceron du soya (Aphis glycines) est le ravageur le plus important de la culture du soya en Amérique du Nord. Quoi qu’efficaces, les pesticides permettent le contrôle des ravageurs que pour une courte période et nécessitent plusieurs applications au cours de la saison. De plus, ils sont dommageables pour l’environnement et la santé humaine. La lutte biologique se présente comme une alternative crédible pour le contrôle des populations d’A. glycines en Amérique du Nord. Trois parasitoïdes (Binodoxys communis, Aphidius colemani, Aphelinus certus) du puceron semblent être des candidats prometteurs. L’objectif de cette étude était d’examiner certains attributs biologiques de ces parasitoïdes au Québec. Dans le cas de B. communis et A. certus nous avons estimé leur synchronisme saisonnier ainsi que leur résistance au froid en laboratoire et en conditions naturelles. Dans le cas, d’A. colemani, nous avons évalué sa capacité à parasiter le puceron du soya et à se disperser dans un champ de soya. Nos résultats démontrent que la souche utilisée de B. communis a perdu sa capacité à entrer en diapause, probablement à cause de la longue période d’élevage en laboratoire qui a suivi son échantillonnage en Asie. Aphelinus certus démontre un potentiel intéressant puisqu’il possède un synchronisme saisonnier tant en automne qu’au printemps avec son hôte ainsi qu’un bon potentiel de survie hivernale au Québec. Quant à A. colemani, les essais suggèrent qu’il se disperse rapidement hors des champs sans attaquer de manière significative A. glycines.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.