17 resultados para Best available techniques

em Université de Montréal, Canada


Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’amitié et l’amour romantique sont, de par leur nature, des relations exclusives. Cet article suggère que l’on peut mieux comprendre la nature de l’exclusivité dont il est question en comprenant l’erreur au coeur de la vision du raisonnement pratique que je nomme « le point de vue englobant » . Selon le PVE, pour que le raisonnement pratique soit rationnel, il doit s’agir d’un processus ayant pour but de choisir la meilleure alternative possible à partir d’une perspective qui est aussi détachée et objective que possible. Quoique cette vision cherche à être neutre à l’égard des porteurs de valeurs, elle incorpore en fait un biais contre les porteurs de valeurs qui ne peuvent être appréciés qu’à partir d’une perspective qui n’est pas détachée - qui ne peuvent être appréciés, par exemple, que par les agents qui sont engagés à long terme envers les valeurs en question. Dans le contexte des relations personnelles, de tels engagements tendent à donner naissance à la sorte d’exclusivité qui caractérise l’amitié et l’amour romantique ; ils empêchent l’agent d’être impartial entre les besoins, les intérêts, etc. de la personne qui lui est chère, d’une part, et ceux des autres, d’autre part. Je suggère que dans de tels contextes les besoins et les revendications des autres personnes peuvent être réduites au silence, de la même manière que, comme le suggère John McDowell, les tentations de l’immoralité sont, pour l’agent vertueux, réduites au silence.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The development of encephalopathy in patients with acute liver injury defines the occurrence of liver failure. The encephalopathy of acute liver failure is characterized by brain edema which manifests clinically as increased intracranial pressure. Despite the best available medical therapies a significant proportion of patients with acute liver failure die due to brain herniation. The present review explores the experimental and clinical data to define the role of hypothermia as a treatment modality for increased intracranial pressure in patients with acute liver failure.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les nombreux exemples réussis où l’aménagement du territoire intègre des milieux naturels nous ont amenée à nous questionner sur les techniques d’intégration des milieux naturels et les outils de planification disponibles au Québec. La présente recherche porte sur le volet environnemental du projet résidentiel le Faubourg de la Pointe-aux-Prairies à Montréal (FPP) situé dans l’Arrondissement Pointe-aux-Trembles/Rivière-des-Prairies/Montréal est. Un premier objectif relié aux résultats nous a permis d’analyser le taux de succès du quartier FPP à intégrer efficacement des préoccupations environnementales concernant la mise en valeur des milieux naturels. En nous basant sur le taux de conservation, l’intégrité écologique et les témoignages des intervenants de la Ville de Montréal, nous avons déterminé que le plan d’aménagement du projet présente un bilan environnemental mitigé. Un second objectif relié aux processus nous a permis de déterminer si les outils sollicités pendant la conception et la mise en œuvre du projet ont facilité l’intégration des milieux naturels. En nous basant sur les outils d’encadrement et proactifs utilisés tout au long de la mise en oeuvre, nous avons déterminé que ceux-ci sont inadaptés à certaines situations. La non intégration des milieux protégés dans les outils de planification, la destruction des milieux aquatiques avec l’accord du Ministère de l’environnement (MDDEP), le manque de vérification des ententes lors de l’attribution des certificats d’autorisation, l'absence de protection des milieux naturels terrestres et la difficulté d’évaluer les bénéfices économiques de l’intégration de la nature ont été les défis majeurs observés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les agents anti-infectieux sont utilisés pour traiter ou prévenir les infections chez les humains, les animaux, les insectes et les plantes. L’apparition de traces de ces substances dans les eaux usées, les eaux naturelles et même l’eau potable dans plusieurs pays du monde soulève l’inquiétude de la communauté scientifique surtout à cause de leur activité biologique. Le but de ces travaux de recherche a été d’étudier la présence d’anti-infectieux dans les eaux environnementales contaminées (c.-à-d. eaux usées, eaux naturelles et eau potable) ainsi que de développer de nouvelles méthodes analytiques capables de quantifier et confirmer leur présence dans ces matrices. Une méta-analyse sur l’occurrence des anti-infectieux dans les eaux environnementales contaminées a démontré qu’au moins 68 composés et 10 de leurs produits de transformation ont été quantifiés à ce jour. Les concentrations environnementales varient entre 0.1 ng/L et 1 mg/L, selon le composé, la matrice et la source de contamination. D’après cette étude, les effets nuisibles des anti-infectieux sur le biote aquatique sont possibles et ces substances peuvent aussi avoir un effet indirect sur la santé humaine à cause de sa possible contribution à la dissémination de la résistance aux anti-infecteiux chez les bactéries. Les premiers tests préliminaires de développement d’une méthode de détermination des anti-infectieux dans les eaux usées ont montré les difficultés à surmonter lors de l’extraction sur phase solide (SPE) ainsi que l’importance de la sélectivité du détecteur. On a décrit une nouvelle méthode de quantification des anti-infectieux utilisant la SPE en tandem dans le mode manuel et la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Les six anti-infectieux ciblés (sulfaméthoxazole, triméthoprime, ciprofloxacin, levofloxacin, clarithromycin et azithromycin) ont été quantifiés à des concentrations entre 39 et 276 ng/L dans les échantillons d’affluent et d’effluent provenant d’une station d’épuration appliquant un traitement primaire et physico- chimique. Les concentrations retrouvées dans les effluents indiquent que la masse moyenne totale de ces substances, déversées hebdomadairement dans le fleuve St. Laurent, était de ~ 2 kg. En vue de réduire le temps total d’analyse et simplifier les manipulations, on a travaillé sur une nouvelle méthode de SPE couplée-LC-MS/MS. Cette méthode a utilisé une technique de permutation de colonnes pour préconcentrer 1.00 mL d’échantillon dans une colonne de SPE couplée. La performance analytique de la méthode a permis la quantification des six anti-infectieux dans les eaux usées municipales et les limites de détection étaient du même ordre de grandeur (13-60 ng/L) que les méthodes basées sur la SPE manuelle. Ensuite, l’application des colonnes de SPE couplée de chromatographie à débit turbulent pour la préconcentration de six anti-infectieux dans les eaux usées a été explorée pour diminuer les effets de matrice. Les résultats obtenus ont indiqué que ces colonnes sont une solution de réchange intéressante aux colonnes de SPE couplée traditionnelles. Finalement, en vue de permettre l’analyse des anti-infectieux dans les eaux de surface et l’eau potable, une méthode SPE couplée-LC-MS/MS utilisant des injections de grand volume (10 mL) a été développée. Le volume de fuite de plusieurs colonnes de SPE couplée a été estimé et la colonne ayant la meilleure rétention a été choisie. Les limites de détection et de confirmation de la méthode ont été entre 1 à 6 ng/L. L’analyse des échantillons réels a démontré que la concentration des trois anti-infectieux ciblés (sulfaméthoxazole, triméthoprime et clarithromycine) était au dessous de la limite de détection de la méthode. La mesure des masses exactes par spectrométrie de masse à temps d’envol et les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle ont été explorés comme des méthodes de confirmation possibles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : La vaccination est l’une des interventions de santé publique les plus efficaces et les plus efficientes. Comme dans la plupart des pays de la région Ouest africaine, le programme national de vaccination a bénéficié du soutien de nombreuses initiatives internationales et nationales dans le but d’accroître la couverture vaccinale. La politique vaccinale du Burkina Faso s’est appuyée sur différentes stratégies à savoir: la vaccination-prospection, la «vaccination commando», le Programme élargi de vaccination (PEV) et les Journées nationales de vaccination. La couverture vaccinale complète des enfants de 12 à 23 mois a certes augmenté, mais elle est restée en deçà des attentes passant de 34,7% en 1993, à 29,3% en 1998 et 43,9% en 2003. Objectif : Le but de cette thèse est d’analyser à plusieurs périodes et à différents niveaux, les facteurs associés à la vaccination complète des enfants de 12 à 23 mois en milieu rural au Burkina Faso. Méthodes : Nous avons utilisé plusieurs stratégies de recherche et quatre sources de données : - les enquêtes démographiques et de santé (EDS) de 1998-1999 et de 2003 - les annuaires statistiques de 1997 et de 2002 - des entretiens individuels auprès de décideurs centraux, régionaux et d’acteurs de terrain, œuvrant pour le système de santé du Burkina Faso - des groupes de discussion et des entretiens individuels auprès de populations desservies par des centres de santé et de promotion sociale (niveau le plus périphérique du système de santé) et du personnel local de santé. Des approches quantitatives (multiniveau) et qualitatives ont permis de répondre à plusieurs questions, les principaux résultats sont présentés sous forme de trois articles. Résultats : Article 1: « Les facteurs individuels et du milieu de vie associés à la vaccination complète des enfants en milieu rural au Burkina Faso : une approche multiniveau ». En 1998, bien que la propension à la vaccination s’accroisse significativement avec le niveau de vie des ménages et l’utilisation des services de santé, ces 2 variables n’expliquent pas totalement les différences de vaccination observées entre les districts. Plus de 37 % de la variation de la vaccination complète est attribuable aux différences entre les districts sanitaires. A ce niveau, si les ressources du district semblent jouer un rôle mineur, un accroissement de 1 % de la proportion de femmes éduquées dans le district accroît de 1,14 fois les chances de vaccination complète des enfants. Article 2: « Rates of coverage and determinants of complete vaccination of children in rural areas of Burkina Faso (1998 - 2003) ». Entre 1998 et 2003, la couverture vaccinale complète a augmenté en milieu rural, passant de 25,90% à 41,20%. Alors que les ressources du district n’ont présenté aucun effet significatif et que celui de l’éducation s’est atténué avec le temps, le niveau de vie et l’expérience d’utilisation des services de santé par contre, restent les facteurs explicatifs les plus stables de la vaccination complète des enfants. Mais, ils n’expliquent pas totalement les différences de vaccination complète qui persistent entre les districts. Malgré une tendance à l’homogénéisation des districts, 7.4% de variation de la vaccination complète en 2003 est attribuable aux différences entre les districts sanitaires. Article 3: « Cultures locales de vaccination : le rôle central des agents de santé. Une étude qualitative en milieu rural du Burkina Faso ». L’exploration des cultures locales de vaccination montre que les maladies cibles du PEV sont bien connues de la population et sont classées parmi les maladies du «blanc», devant être traitées au centre de santé. Les populations recourent à la prévention traditionnelle, mais elles attribuent la régression de la fréquence et de la gravité des épidémies de rougeole, coqueluche et poliomyélite à la vaccination. La fièvre et la diarrhée post vaccinales peuvent être vues comme un succès ou une contre-indication de la vaccination selon les orientations de la culture locale de vaccination. Les deux centres de santé à l’étude appliquent les mêmes stratégies et font face aux mêmes barrières à l’accessibilité. Dans une des aires de santé, l’organisation de la vaccination est la meilleure, le comité de gestion y est impliqué et l’agent de santé est plus disponible, accueille mieux les mères et est soucieux de s’intégrer à la communauté. On y note une meilleure mobilisation sociale. Le comportement de l’agent de santé est un déterminant majeur de la culture locale de vaccination qui à son tour, influence la performance du programme de vaccination. Tant dans la sphère professionnelle que personnelle il doit créer un climat de confiance avec la population qui acceptera de faire vacciner ses enfants, pour autant que le service soit disponible. Résultats complémentaires : le PEV du Burkina est bien structuré et bien supporté tant par un engagement politique national que par la communauté internationale. En plus de la persistance des inégalités de couverture vaccinale, la pérennité du programme reste un souci de tous les acteurs. Conclusion : Au delà des conclusions propres à chaque article, ce travail a permis d’identifier plusieurs facteurs critiques qui permettraient d’améliorer le fonctionnement et la performance du PEV du Burkina Faso et également de pays comparables. Le PEV dispose de ressources adéquates, ses dimensions techniques et programmatiques sont bien maîtrisées et les différentes initiatives internationales soutenues par les bailleurs de fonds lui ont apporté un support effectif. Le facteur humain est crucial : lors du recrutement du personnel de santé, une attention particulière devrait être accordée à l’adoption d’attitudes d’ouverture et d’empathie vis-à-vis de la population. Ce personnel devrait être en nombre suffisant au niveau périphérique et surtout sa présence et sa disponibilité devraient être effectives. Les liens avec la population sont à renforcer par une plus grande implication du comité de gestion dans l’organisation de la vaccination et en définissant plus clairement le rôle des agents de santé villageois. Ces différents points devraient constituer des objectifs du PEV et à ce titre faire l’objet d’un suivi et d’une évaluation adéquats. Finalement, bien que la gratuité officielle de la vaccination ait réduit les barrières financières, certaines entraves demeurent et elles devraient être levées pour améliorer l’accès aux services de vaccination.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire présente une analyse homogène et rigoureuse de l’échantillon d’étoiles naines blanches situées à moins de 20 pc du Soleil. L’objectif principal de cette étude est d’obtenir un modèle statistiquement viable de l’échantillon le plus représentatif de la population des naines blanches. À partir de l’échantillon défini par Holberg et al. (2008), il a fallu dans un premier temps réunir le plus d’information possible sur toutes les candidates locales sous la forme de spectres visibles et de données photométriques. En utilisant les modèles d’atmosphère de naines blanches les plus récents de Tremblay & Bergeron (2009), ainsi que différentes techniques d’analyse, il a été permis d’obtenir, de façon homogène, les paramètres atmosphériques (Teff et log g) des naines blanches de cet échantillon. La technique spectroscopique, c.-à-d. la mesure de Teff et log g par l’ajustement des raies spectrales, fut appliquée à toutes les étoiles de notre échantillon pour lesquelles un spectre visible présentant des raies assez fortes était disponible. Pour les étoiles avec des données photométriques, la distribution d’énergie combinée à la parallaxe trigonométrique, lorsque mesurée, permettent de déterminer les paramètres atmosphériques ainsi que la composition chimique de l’étoile. Un catalogue révisé des naines blanches dans le voisinage solaire est présenté qui inclut tous les paramètres atmosphériques nouvellement determinés. L’analyse globale qui en découle est ensuite exposée, incluant une étude de la distribution de la composition chimique des naines blanches locales, de la distribution de masse et de la fonction luminosité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La documentation des programmes aide les développeurs à mieux comprendre le code source pendant les tâches de maintenance. Toutefois, la documentation n’est pas toujours disponible ou elle peut être de mauvaise qualité. Le recours à la redocumentation s’avère ainsi nécessaire. Dans ce contexte, nous proposons de faire la redocumentation en générant des commentaires par application de techniques de résumé par extraction. Pour mener à bien cette tâche, nous avons commencé par faire une étude empirique pour étudier les aspects quantitatifs et qualitatifs des commentaires. En particulier, nous nous sommes intéressés à l’étude de la distribution des commentaires par rapport aux différents types d’instructions et à la fréquence de documentation de chaque type. Aussi, nous avons proposé une taxonomie de commentaires pour classer les commentaires selon leur contenu et leur qualité. Suite aux résultats de l’étude empirique, nous avons décidé de résumer les classes Java par extraction des commentaires des méthodes/constructeurs. Nous avons défini plusieurs heuristiques pour déterminer les commentaires les plus pertinents à l’extraction. Ensuite, nous avons appliqué ces heuristiques sur les classes Java de trois projets pour en générer les résumés. Enfin, nous avons comparé les résumés produits (les commentaires produits) à des résumés références (les commentaires originaux) en utilisant la métrique ROUGE.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction: Coordination through CVHL/BVCS gives Canadian health libraries access to information technology they could not offer individually, thereby enhancing the library services offered to Canadian health professionals. An example is the portal being developed. Portal best practices are of increasing interest (usability.gov; Wikipedia portals; JISC subject portal project; Stanford clinical portals) but conclusive research is not yet available. This paper will identify best practices for a portal bringing together knowledge for Canadian health professionals supported through a network of libraries. Description: The portal for Canadian health professionals will include capabilities such as: • Authentication • Question referral • Specialist “branch libraries” • Integration of commercial resources, web resources and health systems data • Cross-resource search engine • Infrastructure to enable links from EHR and decision support systems • Knowledge translation tools, such as highlighting of best evidence Best practices will be determined by studying the capabilities of existing portals, including consortia/networks and individual institutions, and through a literature review. Outcomes: Best practices in portals will be reviewed. The collaboratively developed Virtual Library, currently the heart of cvhl.ca, is a unique database collecting high quality, free web documents and sites relevant to Canadian health care. The evident strengths of the Virtual Library will be discussed in light of best practices. Discussion: Identification of best practices will support cost-benefit analysis of options and provide direction for CVHL/BVCS. Open discussion with stakeholders (libraries and professionals) informed by this review will lead to adoption of the best technical solutions supporting Canadian health libraries and their users.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La dystrophie cornéenne endothéliale de Fuchs (FECD, pour l’abréviation du terme anglais « Fuchs endothelial corneal dystrophy ») est une maladie de l'endothélium cornéen. Sa pathogenèse est mal connue. Aucun traitement médical n’est efficace. Le seul traitement existant est chirurgical et consiste dans le remplacement de l’endothélium pathologique par un endothélium sain provenant de cornées de la Banque des yeux. Le traitement chirurgical, en revanche, comporte 10% de rejet immunologique. Des modèles expérimentaux sont donc nécessaires afin de mieux comprendre cette maladie ainsi que pour le développement de traitements alternatifs. Le but général de cette thèse est de développer un modèle expérimental de la FECD en utilisant le génie tissulaire. Ceci a été réalisé en trois étapes. 1) Tout d'abord, l'endothélium cornéen a été reconstruit par génie tissulaire en utilisant des cellules endothéliales en culture, provenant de patients atteints de FECD. Ce modèle a ensuite été caractérisé in vitro. Brièvement, les cellules endothéliales cornéennes FECD ont été isolées à partir de membranes de Descemet prélevées lors de greffes de cornée. Les cellules au deuxième ou troisième passages ont ensuite été ensemencées sur une cornée humaine préalablement décellularisée. Suivant 2 semaines de culture, les endothélia cornéens reconstruits FECD (n = 6) ont été évalués à l'aide d'histologie, de microscopie électronique à transmission et d’immunomarquages de différentes protéines. Les endothélia cornéens reconstruits FECD ont formé une monocouche de cellules polygonales bien adhérées à la membrane de Descemet. Les immunomarquages ont démontré la présence des protéines importantes pour la fonctionnalité de l’endothélium cornéen telles que Na+-K+/ATPase α1 et Na+/HCO3-, ainsi qu’une expression faible et uniforme de la protéine clusterine. 2) Deux techniques chirurgicales (DSAEK ; pour « Descemet stripping automated endothelial keratoplasty » et la kératoplastie pénétrante) ont été comparées pour la transplantation cornéenne dans le modèle animal félin. Les paramètres comparés incluaient les défis chirurgicaux et les résultats cliniques. La technique « DSAEK » a été difficile à effectuer dans le modèle félin. Une formation rapide de fibrine a été observée dans tous les cas DSAEK (n = 5). 3) Finalement, la fonctionnalité in vivo des endothélia cornéens reconstruits FECD a été évaluée (n = 7). Les évaluations in vivo comprenaient la transparence, la pachymétrie et la tomographie par cohérence optique. Les évaluations post-mortem incluaient la morphométrie des cellules endothéliales, la microscopie électronique à transmission et des immunomarquage de protéines liées à la fonctionnalité. Après la transplantation, la pachymétrie a progressivement diminué et la transparence a progressivement augmenté. Sept jours après la transplantation, 6 des 7 greffes étaient claires. La microscopie électronique à transmission a montré la présence de matériel fibrillaire sous-endothélial dans toutes les greffes d’endothelia reconstruits FECD. Les endothélia reconstruits exprimaient aussi des protéines Na+-K+/ATPase et Na+/HCO3-. En résumé, cette thèse démontre que les cellules endothéliales de la cornée à un stade avancé FECD peuvent être utilisées pour reconstruire un endothélium cornéen par génie tissulaire. La kératoplastie pénétrante a été démontrée comme étant la procédure la plus appropriée pour transplanter ces tissus reconstruits dans l’œil du modèle animal félin. La restauration de l'épaisseur cornéenne et de la transparence démontrent que les greffons reconstruits FECD sont fonctionnels in vivo. Ces nouveaux modèles FECD démontrent une réhabilitation des cellules FECD, permettant d’utiliser le génie tissulaire pour reconstruire des endothelia fonctionnels à partir de cellules dystrophiques. Les applications potentielles sont nombreuses, y compris des études physiopathologiques et pharmacologiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les problèmes de conception de réseaux ont reçu un intérêt particulier et ont été largement étudiés de par leurs nombreuses applications dans différents domaines, tels que les transports et les télécommunications. Nous nous intéressons dans ce mémoire au problème de conception de réseaux avec coûts d’ajout de capacité. Il s’agit d’installer un ensemble d’équipements sur un réseau en vue de satisfaire la demande, tout en respectant les contraintes de capacité, chaque arc pouvant admettre plusieurs équipements. L’objectif est de minimiser les coûts variables de transport des produits et les coûts fixes d’installation ou d’augmentation de capacité des équipements. La méthode que nous envisageons pour résoudre ce problème est basée sur les techniques utilisées en programmation linéaire en nombres entiers, notamment celles de génération de colonnes et de coupes. Ces méthodes sont introduites dans un algorithme général de branch-and-bound basé sur la relaxation linéaire. Nous avons testé notre méthode sur quatre groupes d’instances de tailles différentes, et nous l’avons comparée à CPLEX, qui constitue un des meilleurs solveurs permettant de résoudre des problèmes d’optimisation, ainsi qu’à une méthode existante dans la littérature combinant des méthodes exactes et heuristiques. Notre méthode a été plus performante que ces deux méthodes, notamment pour les instances de très grandes tailles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.