432 resultados para classification des Systèmes de Recommandation
Resumo:
La pléthysmographie pénienne est reconnue comme la méthode la plus rigoureuse pour l’évaluation des intérêts sexuels. Cet instrument pourrait cependant bénéficier d’amélioration au niveau de sa validité écologique et de sa vulnérabilité aux tentatives de falsification. Cet outil est également confronté aux contraintes éthiques et légales liées à la présentation de stimuli produits à partir de modèle humain pour susciter l’excitation sexuelle. La présente thèse doctorale propose de pallier aux lacunes de la procédure pléthysmographique en la combinant à des stimuli générés par ordinateur présentés en immersion virtuelle et à la vidéo-oculographie. Dans le cadre d’une première étude empirique, il s’agit de déterminer si l’usage de stimuli générés par ordinateur présentés en immersion virtuelle est préférable à la modalité auditive actuellement utilisée. Les réponses érectiles d’agresseurs sexuels d’enfants et d’hommes sans paraphilie connue sont enregistrées et la capacité des deux modalités à produire des profils d’excitation sexuels et des indices de déviance propres aux intérêts sexuels est comparée. Dans le cadre d’une seconde étude expérimentale, les mouvements oculaires sont analysés afin de détecter les tentatives de contrôle volontaire de la réponse érectile lors d’une procédure d’évaluation pléthysmographique. Les réponses érectiles et les mouvements oculaires d’hommes sans dossier judiciaire sont enregistrés lors du visionnement de stimuli sous trois différentes conditions, dont une tâche de suppression de la réponse érectile. Dans l’ensemble, les résultats démontrent que les stimuli générés par ordinateur présentés en immersion virtuelle génèrent des profils d’excitation sexuelle ainsi que des indices de déviance ayant une précision de classification et de discrimination significativement supérieure à la modalité auditive. D’autre part, les résultats soulignent la capacité des mouvements oculaires à identifier une signature oculaire propre à l’utilisation d’une stratégie cognitive d’inhibition de la réponse érectile qui se caractérise notamment par la mise à l’écart du contenu sexuel et le ralentissement global du processus d’exploration visuel. Ce projet de recherche souligne les avantages inhérents à la présentation en immersion virtuelle de stimuli générés par ordinateur ainsi qu’à l’étude des mouvements oculaires lors de l’évaluation pléthysmographique et vient appuyer l’implantation progressive de cette modalité dans les milieux d’évaluations cliniques.
Resumo:
Travail réalisé à l'École de bibliothéconomie et des sciences de l'information (EBSI), Université de Montréal, sous la direction de Mme Audrey Laplante dans le cadre du cours SCI6850 Recherche individuelle, à l'automne 2012.
Resumo:
Objectifs : Cette thèse porte sur l’association entre les caractéristiques socioenvironnementales des voisinages (milieux locaux) et la prévalence des limitations d’activités (ou handicap) dans la population québécoise. Elle a trois objectifs principaux : (1) clarifier les enjeux conceptuels et méthodologiques relatifs à l’étude des déterminants socioenvironnementaux des limitations d’activités; (2) décrire les contributions respectives de la composition socioéconomique des voisinages et de facteurs contextuels à la variabilité locale de la prévalence des limitations d’activités; (3) évaluer la présence d’interactions entre la santé fonctionnelle des personnes (incapacité) et des caractéristiques des voisinages en lien avec la prévalence des limitations d’activités. Méthodes : Une analyse de la littérature scientifique a été effectuée en lien avec le premier objectif de la thèse. En lien avec le deuxième objectif, des données pour le Québec du recensement canadien de 2001 (échantillon de 20% de la population) ont été utilisées pour estimer l’association entre la prévalence des limitations d’activités et des caractéristiques des voisinages : classification urbain-rural, composition socioéconomique (défavorisation matérielle et sociale) et facteurs contextuels (qualité des habitations, stabilité résidentielle et utilisation des transports actifs et collectifs). En lien avec le troisième objectif, des données pour la population urbaine du Québec issues de l’Enquête sur la santé dans les collectivités canadiennes (2003, 2005 et 2007/2008) ont permis de tester la présence d’interaction entre la santé fonctionnelle des personnes et des caractéristiques des voisinages (défavorisation matérielle et sociale, qualité des habitations, stabilité résidentielle et densité des services). Pour les analyses associées aux deux derniers objectifs, l’analyse des corrélats de la prévalence des limitations d’activités a été effectuée à l’aide de régressions logistiques multiniveaux. Résultats : Différents éléments conceptuels et opérationnels limitent la possibilité de faire une synthèse des analyses épidémiologiques portant sur les influences socioenvironnementales sur les limitations d’activités. Les résultats des analyses empiriques suggèrent que : (1) la variation géographique de la prévalence des limitations d’activités s’explique en grande partie par la composition socioéconomique des voisinages; (2) des facteurs contextuels sont associés à cette variation géographique; (3) les mesures relatives d’inégalités sous-estiment les disparités contextuelles dans la distribution des nombres absolus de personnes ayant une limitation d’activités; et (4) l’association entre la prévalence des limitations d’activités et la défavorisation sociale pourrait varier selon la santé fonctionnelle des personnes. Conclusions : Différentes caractéristiques socioenvironnementales sont potentiellement associées aux variations géographiques des limitations d’activités au Québec. Le développement d’indicateurs socioenvironnementaux favoriserait une connaissance plus précise de l’influence de ces caractéristiques socioenvironnementales sur les limitations d’activités et des mécanismes par lesquels s’exerce cette influence. L’établissement d’un système national de surveillance des aménagements territoriaux est proposé afin de soutenir la recherche et la prise de décision. Des indicateurs locaux d’accessibilité aux transports, aux espaces publics ainsi qu’aux services de proximité devraient être priorisés. Ces aspects de l’aménagement du territoire sont susceptibles de rejoindre plusieurs enjeux de santé publique et ils ont comme autre avantage d’être inclus dans différentes orientations québécoises ciblant le vieillissement en santé et la réduction des limitations d’activités.
Resumo:
Le processus d’enseignement ne se limite pas à un ensemble de méthodes pédagogiques à appliquer et de contenus programmés à transmettre. Il se déploie également dans la construction par l’enseignant d’une relation pédagogique avec ses élèves. Cette relation est considérée comme étant optimale lorsqu’elle est caractérisée par un niveau élevé de chaleur et un faible niveau de conflits. Plusieurs études démontrent l’existence de liens significatifs entre la qualité de cette relation et les différents indicateurs d’adaptation à l’école. En général, les résultats des études démontrent l’influence positive d’une relation élève-enseignant chaleureuse sur le comportement des élèves, leur réussite scolaire ainsi que sur leurs sentiments et attitudes envers l’école. Certaines recherches soulignent également que l’incidence de la qualité de la relation élève-enseignant est particulièrement importante pour les élèves considérés à risque en raison de présence chez eux des certains facteurs de vulnérabilité tels que la pauvreté (facteurs sociaux), la relation parent-enfant difficile (facteurs familiaux) ou le manque d’habiletés sociales (facteurs individuels). La majorité de recherches ne permet toutefois pas de déterminer quels sont précisément les aspects de cette relation qui influencent significativement la qualité de la relation entre l’enseignant et ses élèves. Souhaitant pallier cette lacune, la présente étude poursuit deux objectifs : 1) examiner le lien entre les perceptions des élèves de niveau secondaire considérés à risque concernant les différents aspects de la qualité de la relation élève-enseignant et les problèmes de comportement extériorisés ; 2) vérifier si ce lien évolue avec le temps. Afin d’atteindre ces objectifs, nous avons pris en considération deux dimensions qui permettent de qualifier les profils de la relation élève-enseignant, soit la chaleur et les conflits (Pianta, 1992). La classification de ces deux dimensions en fonction de leur pôle positif et négatif permet de distinguer quatre profils relationnels que l’élève est susceptible d’établir avec ses enseignants soient le profil dit chaleureux, controversé, négligent ou conflictuel. II Cette étude repose sur un devis longitudinal grâce aux données recueillies dans le cadre de l’évaluation de la stratégie d’intervention Agir Autrement réalisée entre 2002 et 2008 (SIAA). Il s’agit donc ici d’analyses secondaires menées sur un échantillon aléatoire tiré de cette vaste recherche. Un échantillon de 563 élèves de 1re secondaire incluant 273 filles et 290 garçons a été constitué. Les analyses ont été effectuées auprès de ces élèves alors qu’ils étaient en premier et en cinquième année de secondaire ce qui a permis d’observer les changements dans le comportement des élèves à risque en fonction de la qualité de la relation élève-enseignant. De façon générale, les résultats obtenus montrent que les liens entre les différents profils de la relation élève-enseignant et les problèmes de comportement extériorisés sont fort complexes et loin d’être univoques. En particulier, ces résultats permettent de constater que le profil chaleureux représente le profil relationnel le moins associé aux problèmes de comportement extériorisés chez les élèves à risque et ce, autant en première qu’en cinquième secondaire. Selon nos résultats, les profils conflictuel et controversé sont significativement liés aux problèmes de comportement extériorisés chez les élèves à risque de 1re secondaire et de 5e secondaire. En ce qui a trait au profil négligent, les résultats de la présente recherche montrent l’existence d’un lien corrélationnel entre ce profil relationnel et les problèmes de comportement extériorisés. Toutefois, la force de l’association s’est avérée plus significative pour les élèves à risque en 5e secondaire secondaire comparativement aux mêmes élèves alors qu’ils étaient en 1re secondaire. Finalement, l’ensemble de résultats obtenus montre que les profils relationnels restent relativement stables dans le temps, tandis que la fréquence de comportements problématiques tels que le vol grave et la consommation de psychotropes augmentent d’une manière significative. De plus, les résultats que nous avons obtenus montrent l’existence d’un lien entre la dimension de conflits de la relation élève-enseignant et la consommation de substances psychotropes chez les élèves de notre échantillon. La présente recherche permet de constater que la dimension de conflits est aussi importante dans la relation élève-enseignant que la dimension de la chaleur, car les III conflits agiraient comme facteurs de risque pouvant augmenter la fréquence de problèmes de comportement extériorisés chez les élèves de secondaire considérés à risque. Ainsi, la réduction de niveau de conflits dans la relation entre les élèves et leurs enseignants peut jouer un rôle important en termes de prévention de ce type de problèmes chez les élèves de niveau secondaire.
Resumo:
Les dernières décennies ont été marquées par une augmentation du nombre des cas de cancers, ce qui a subséquemment conduit à une augmentation dans la consommation des agents de chimiothérapie. La toxicité et le caractère cancérogène de ces molécules justifient l’intérêt crucial porté à leur égard. Quelques études ont fait l’objet de détection et de quantification des agents de chimiothérapie dans des matrices environnementales. Dans ce projet, une méthode utilisant la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS) précédée d’une extraction sur phase solide (SPE) automatisée ou en ligne a été développée pour la détection et la quantification d’un groupe de six agents de chimiothérapie. Parmi ceux-ci figurent les plus utilisés au Québec (gemcitabine, méthotrexate, cyclophosphamide, ifosfamide, irinotécan, épirubicine) et présentant des propriétés physico-chimiques et des structures chimiques différentes. La méthode développée a été validée dans une matrice réelle représentant l’affluent d’une station d’épuration dans la région de Montréal. Deux des six composés cytotoxiques étudiés en l’occurrence (cyclophosphamide et méthotrexate) ont été détectés dans huit échantillons sur les neuf qui ont été recensés, essentiellement au niveau de l’affluent et l’effluent de quelques stations d’épuration de la région de Montréal. Les résultats des analyses effectuées sur les échantillons réels ont montré qu’il n’y avait pas de différence significative dans la concentration entre l’affluent et l’effluent, et donc que les systèmes d’épuration semblent inefficaces pour la dégradation de ces molécules.
Resumo:
Malgré l’incertitude quant à leur sécurité à l’égard des personnes et de l’environnement, les cultures génétiquement modifiées (GM) ont été largement diffusées à travers le monde. En outre, dans de nombreux pays la coexistence des cultures GM avec les systèmes conventionnels de production et les systèmes de production biologique est habituelle. Dans l’Union européenne (UE), cependant, l’utilisation de cette technologie a soulevé d’importantes questions. Ces réserves sont reflétées dans le développement d’un cadre réglementaire particulièrement restrictif articulé autour d’une procédure unique d’approbation de ces cultures. De la même manière, le débat sur la coexistence des cultures GM avec la production agricole conventionnelle et la production biologique a été particulièrement animé dans l’UE. La première section de ce travail est consacrée à examiner comment, du fait de la complexité des nouvelles technologies, il est nécessaire, du point de vue régulateur, de faire face à des situations dans lesquelles les scientifiques ne peuvent encore fournir aucune réponse précise. Dans ce contexte, le principe de précaution est invoqué afin de limiter les dangers potentiels, mais ceci est sans préjudice des questions qui restent encore ouvertes sur la portée et la nature de ce principe. En tant que manifestations précises de ce principe de précaution, deux aspects sont abordés dans les secondes et troisièmes parties de ce travail. Nous analysons, d’abord, la procédure d’autorisation des produits GM dans l’UE, procédure spécifique basée sur le principe de précaution dans laquelle soit les institutions communautaires soit les autorités des États membres jouent un rôle important. Par rapport à ce cadre très réglementé de l’UE, la troisième partie examine le degré d’intervention des États membres. Ceci se manifeste principalement dans la possibilité d’adopter certaines clauses de sauvegarde pour limiter l’expansion des cultures GM ainsi que dans la réglementation de la coexistence des cultures GM avec les cultures conventionnelles et la possibilité d’exclure de la culture des OGM certaines zones. Finalement, quelques conclusions sont données dans la quatrième partie.
Resumo:
Il existe une nouvelle catégorie de technologie, les vaccins dérivés de plantes («VDPs»), qui englobe des produits qui ont un grand potentiel pour l’amélioration de la santé à l’échelle globale. Bien qu’ils ne soient pas encore disponibles pour le public, le développement des VDPs a progressé de façon telle qu’ils devraient être prêts à être mis en marché et distribués sous peu. Ainsi, c’est le moment idéal pour lancer un débat sur la meilleure façon de protéger cette nouvelle catégorie de technologie. Vu leur nature, les VDPs ne se qualifient pas parfaitement pour aucune forme de protection de propriété intellectuelle. En effet, un VDP est à la fois une variété de plante, une biotechnologie, un médicament et un produit qui vise spécifiquement les besoins de pays en voie de développement. Chacune de ces caractéristiques soulève ses propres problématiques en ce qui a trait à la propriété intellectuelle. C’est pourquoi il appert difficile d’identifier la forme de protection la plus adéquate et appropriée pour les VDPs. Cet article traite de la nature d’un VDP, des différentes catégories dans lesquelles il pourrait être classé, des différents types de systèmes de protection de propriété intellectuelle auxquels il pourrait être éligible ainsi que des problèmes qui pourraient être soulevés par tous ces éléments. Ces discussions visent à mettre l’accent sur le fait que nous avons affaire à une toute nouvelle catégorie d’innovation technologique. L’auteure est donc d’avis qu’une approche proactive est nécessaire pour discuter d’un système de protection de propriété intellectuelle en relation avec les VDPs. En ce moment, c’est l’inventeur qui choisi comment il protègera son invention. Les moyens employés par ce dernier pourraient être subséquemment modifiés ou annulés par une décision judiciaire mais comme plusieurs autres inventeurs d’une même catégorie de technologie auront probablement déjà adopté une stratégie de protection similaire, ce type de mesures judiciaire, très tard dans le processus, pourra avoir des résultats néfastes sur les détenteurs de droits. Le développement de lignes directrices d’entrée de jeu, avec l’aide d’un panel d’experts de préférence, peut contribuer à éviter les situations de confusion qui ont déjà été vécues avec l’application d’autres nouvelles technologies et qui devraient servir de leçon pour l’encadrement des VDPs.
Resumo:
Au lendemain de l’adoption de la sphère de sécurité (ou Safe Harbor Principles) entre l’Union européenne et les États-Unis, il convient de revenir sur les principes mis de l’avant, après une longue période de discussion, pour encadrer le traitement des renseignements personnels entre ces deux systèmes juridiques. Ce rappel permettra de mieux mesurer la portée de ladite sphère de sécurité face aux logiques territoriales de protection des renseignements personnels et à l’absence d’homogénéité de celles-ci.
Resumo:
L’adaptation des cellules à leur environnement externe repose sur la transduction adéquate de signaux régulés par une pléthore d'événements moléculaires. Parmi ces événements moléculaires, les modifications post-traductionnelles (MPT) de protéines aident à intégrer, à traduire et à organiser de façon spatiotemporelle ces signaux pour que les cellules puissent réagir aux stimuli externes. Parmi les modifications post-traductionnelles, les petites protéines de la famille de l’Ubiquitine (Ublps, Ubiquitin-like proteins) jouent un rôle majeur dans presque toutes les voies de signalisation. Cette thèse rapporte des études fonctionnelles et structurales des interactions covalentes et non covalentes entre SUMO (Small Ubiquitin related MOdifier), un membre de la famille des Ublps, et trois protéines d'échafaudage, TIF1beta, le corépresseur universel des protéines KRAB-multidoigt de zinc, PIAS1, une ligase E3 pour SUMO et PML, un suppresseur de tumeur. La première étude rapporte l'identification et la caractérisation biochimique des sites de SUMOylation de TIF1beta. Nous avons déterminé que la modification covalente de six résidus lysine par SUMO est essentielle à l’activité de répression de la transcription induit par TIF1beta. En outre, nous présentons des évidences indiquant que la SUMOylation de TIF1 exige non seulement sa capacité à homo-oligomériser, mais est aussi positivement régulée par son interaction avec le domaine KRAB des protéines à doigts de zinc. Partant de ce constat, nous postulons que les protéines KRAB-multidoigt de zinc recrutent leur corépresseur TIF1betaà des gènes cibles, mais aussi accentuent son activité répressive grâce à l'augmentation de sa SUMOylation. Notre seconde étude révèle qu’en plus de réprimer la transcription en tant que MPT covalente, SUMO joue aussi un rôle important dans la répression en tant que partenaire non covalent d’interactions protéine-protéine. Nous avons montré que SUMO interagit simultanément avec deux enzymes de la machinerie de SUMOylation, l’unique enzyme de conjugaison E2, UBC9, et la ligase E3 PIAS1 au sein d’un complexe ternaire répresseur. En outre, nous révélons que la formation du complexe ternaire PIAS1:SUMO:UBC9 est modulée par le niveau de phosphorylation de résidus sérine juxtaposés à un motif d’interaction avec SUMO (SIM) dans PIAS1. Ainsi, SUMO agit comme un adaptateur spécifique qui stabilise les interactions UBC9 E2: E3 PIAS1. Partant de ce constat, nous proposons que les enzymes E2 et E3 des autres systèmes Ublps exploitent des mécanismes similaires dans le cadre de leur fonction Enfin, notre troisième étude explore la régulation des interactions non covalentes de SUMO par la phosphorylation. En utilisant une combinaison d'études in vivo et in vitro, nous démontrons que l'interaction entre SUMO1 et PML est régi par la phosphorylation dépendant de CK2 sur quatre résidus sérine de PML. Les structures cristallographiques des complexes PML-SIM:SUMO1 révèlent que les phospho-sérines de PML contactent des résidus de la région basique de SUMO1. Sachant que la kinase CK2 peut être induite par des kinases activables par le stress, ces résultats suggèrent que les interactions non-covalentes avec SUMO sont modulées par le stress cellulaire. Sur la base de cette constatation, nous postulons que des événements analogues affectent des protéines contenant des séquences SIM ciblées par CK2. En résumé, cette étude révèle qu’en plus de son rôle de MPT, SUMO peut fonctionner comme un adaptateur permettant des interactions spécifiques entre protéines tel que pour les enzymes E3 et E2.
Resumo:
Les systèmes éducatifs dans le monde et particulièrement au Québec visent à préparer les élèves à relever les défis de l’avenir et à continuer à apprendre tout au long de leur vie. À cet égard, la lecture est un volet important dans le développement d'un enfant et dans sa capacité de faire des liens avec le monde qui l'entoure. La lecture est un outil d’apprentissage, de communication et de création, et elle peut être une source de plaisir. La plupart des activités quotidiennes font appel à la lecture. Ainsi, elle est nécessaire pour effectuer une tâche, se renseigner ou se divertir. L’élève apprend à lire pour mieux s’intégrer dans la vie scolaire et sociale et pour apprendre dans différents contextes disciplinaires. Dans le but notamment de consolider les apprentissages et d’installer de bonnes habitudes de travail, les enseignants proposent aux élèves des devoirs de lecture à faire à la maison. Les recherches montrent que la participation des parents dans la vie scolaire des enfants, particulièrement lors de l’encadrement des devoirs, peut avoir une influence positive sur la réussite scolaire. La présente recherche vise à étudier la manière dont les parents d’élèves de première année encadrent leur enfant pendant la période des devoirs, notamment pendant la lecture. Notre échantillon est constitué de dix-sept parents d’élèves de première année. Nous avons privilégié l’entrevue semi-dirigée afin de recueillir les commentaires et les perceptions des parents sur le déroulement de la période des devoirs à la maison. Les résultats ont montré que tous les parents interrogés encadrent leur enfant pendant ses devoirs, les mères plus souvent que les pères, et qu’ils établissent une routine lors de cette période. L’encadrement des devoirs se fait majoritairement dans un climat agréable. La plupart des parents soutiennent leur enfant en restant à proximité de lui, en lui donnant des conseils, en l’encourageant et en s’assurant qu’il termine ses devoirs. La majorité des parents estiment avoir les ressources nécessaires pour encadrer leur enfant lors des devoirs. Durant la lecture, les parents écoutent généralement leur enfant et l’aident ou le corrigent s’il n’arrive pas à lire ou s’il fait une erreur. Par ailleurs, même si les parents sont convaincus de l’habileté de leur enfant en lecture, la plupart vérifient sa compréhension en posant des questions. En ce qui a trait aux effets des devoirs, tous les parents pensent que les devoirs favorisent la réussite scolaire de leur enfant et que leur encadrement a un effet positif sur la lecture. Les résultats obtenus ne peuvent être généralisés. Cependant, il serait intéressant de poursuivre ce travail par une recherche complémentaire qui étudierait les perceptions des enseignants et des élèves sur les devoirs de lecture.
Resumo:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Resumo:
Cette étude vise à tester la pertinence des images RSO - de moyenne et de haute résolution - à la caractérisation des types d’occupation du sol en milieu urbain. Elle s’est basée sur des approches texturales à partir des statistiques de deuxième ordre. Plus spécifiquement, on recherche les paramètres de texture les plus pertinents pour discriminer les objets urbains. Il a été utilisé à cet égard des images Radarsat-1 en mode fin en polarisation HH et Radarsat-2 en mode fin en double et quadruple polarisation et en mode ultrafin en polarisation HH. Les occupations du sol recherchées étaient le bâti dense, le bâti de densité moyenne, le bâti de densité faible, le bâti industriel et institutionnel, la végétation de faible densité, la végétation dense et l’eau. Les neuf paramètres de textures analysés ont été regroupés, en familles selon leur définition mathématique. Les paramètres de ressemblance/dissemblance regroupent l’Homogénéité, le Contraste, la Similarité et la Dissimilarité. Les paramètres de désordre sont l’Entropie et le Deuxième Moment Angulaire. L’Écart-Type et la Corrélation sont des paramètres de dispersion et la Moyenne est une famille à part. Il ressort des expériences que certaines combinaisons de paramètres de texture provenant de familles différentes utilisés dans les classifications donnent de très bons résultants alors que d’autres associations de paramètres de texture de définition mathématiques proches génèrent de moins bons résultats. Par ailleurs on constate que si l’utilisation de plusieurs paramètres de texture améliore les classifications, la performance de celle-ci plafonne à partir de trois paramètres. Malgré la bonne performance de cette approche basée sur la complémentarité des paramètres de texture, des erreurs systématiques dues aux effets cardinaux subsistent sur les classifications. Pour pallier à ce problème, il a été développé un modèle de compensation radiométrique basé sur la section efficace radar (SER). Une simulation radar à partir du modèle numérique de surface du milieu a permis d'extraire les zones de rétrodiffusion des bâtis et d'analyser les rétrodiffusions correspondantes. Une règle de compensation des effets cardinaux fondée uniquement sur les réponses des objets en fonction de leur orientation par rapport au plan d'illumination par le faisceau du radar a été mise au point. Des applications de cet algorithme sur des images RADARSAT-1 et RADARSAT-2 en polarisations HH, HV, VH, et VV ont permis de réaliser de considérables gains et d’éliminer l’essentiel des erreurs de classification dues aux effets cardinaux.
Resumo:
Les distributions spatiales des racines fines de Quercus rubra L. (CHR), Populus deltoides x nigra (DN3570) (PEH) et d’une culture fourragère (FOUR) ont été étudiées dans un système agroforestier de culture intercalaire (SCI) du sud du Québec (Canada). L’étude ne révèle pas d’enracinement plus profond des arbres en SCI, mais des profils superficiels à l’instar de nombreuses espèces d’arbres en plantations ou en milieu naturel. Une séparation spatiale existe entre les systèmes racinaires du FOUR et des CHR dont la densité relative selon la profondeur est plus faible que celle de la culture de 0 à 10 cm, mais plus élevée de 10 à 30 cm. Les PEH ne présentent pas d’adaptation racinaire et les hautes valeurs de densités de longueur racinaires (FRLD) de surface près du tronc entraînent une diminution de 45 % de la densité racinaire de surface du fourrage, suggérant une forte compétition pour les ressources du sol. L’étude du rendement agricole a d’ailleurs révélé des réductions de biomasse fourragère particulièrement près des PEH. Cependant, les résultats d’une analyse à composantes principales suggèrent un impact secondaire de la compétition racinaire sur le rendement agricole, et une plus grande importance de la compétition pour la lumière. L’impact des PEH à croissance rapide sur la culture est plus grand que celui du CHR. Cependant, ils seront récoltés plus rapidement et l’espace libéré favorisera la croissance de la culture intercalaire. Cet aspect dynamique des SCI les rapproche des écosystèmes naturels et devrait être réfléchi et approfondi pour leur succès futur.
Resumo:
Cette formation vous permettra de vous familiariser avec la démarche de la pratique fondée sur des données probantes en sciences de la santé. Les principaux concepts et outils seront présentés. À la fin de cette conférence vous serez en mesure de : structurer une question clinique PICO, identifier les sources documentaires pertinentes et configurer PubMed en fonction d’un meilleur accès aux données probantes, reconnaître les types d’études cliniques et comprendre les niveaux de preuve et échelles de recommandation. La présentation sera suivie d’une discussion sur les moyens de soutenir l’utilisation des données probantes dans votre institution.
Resumo:
Introduction : La scaphocéphalie est la craniosynostose monosuturaire la plus commune (1/2000). Celle-ci est causée par la fusion prématurée de la suture sagittale. Une chirurgie corrective de la voûte crânienne peut être effectuée dans la première année de vie de l’enfant. Il n’existe actuellement aucune donnée précise dans la littérature scientifique étudiant l’occlusion chez les patients scaphocéphales, ainsi que les impacts potentiels de la chirurgie de la voûte crânienne sur celle-ci. Objectifs : L’objectif primaire de cette étude est de décrire et comparer la malocclusion dento-squelettique d’un groupe de patients scaphocéphales à une population pédiatrique normale. L’objectif secondaire est d’évaluer la différence au niveau de l’occlusion entre un sous-groupe de patients scaphocéphales ayant eu une chirurgie corrective de la voûte crânienne et un sous-groupe ne l’ayant pas eu. Méthodologie : Quatre-vingt-onze patients scaphocéphales (2-11 ans; 71 garçons) de la banque de données de la Clinique de Craniofacial du CHU Ste-Justine ont formé le groupe expérimental. Tous les patients ont eu un examen orthodontique complet et ont été suivis. Parmi ceux-ci, quarante-quatre avaient eu une chirurgie corrective de la voûte crânienne et quarante-sept n’en avaient pas eu, mais étaient suivis régulièrement à la clinique. Trente-huit (33 garçons; 17 opérés) de ces patients ont eu des radiographies céphalométriques latérales et parmi ceux-ci, un certain nombre ont reçus des suivis de croissance radiologiques. Résultats : Les valeurs cliniques de la classification dentaire, ainsi que la mesure du surplomb horizontal, ont indiqué une augmentation de la prévalence de malocclusions de classe II chez les enfants scaphocéphales. Par contre, les valeurs céphalométriques indicatrices de malocclusion squelettique de classe II (ex. : N-A perp HP, N-B perp HP, N-Pog perp HP, Wits, N-A-Pog) sont demeurées dans les limites de la normale. Certaines valeurs céphalométriques présentent une différence statistiquement significative entre les patients opérés et non opérés (ANS-PNS t2, p=0.025; /1-FH t2, p=0.028), mais ces variations individuelles ne sont pas reliées à la scaphocéphalie. Conclusion : Les enfants scaphocéphales présentent cliniquement davantage de malocclusions de classe II que les enfants normaux. Par contre, les valeurs radiologiques antéro-postérieures et transverses demeurent dans les limites de la normale. La chirurgie corrective de la voûte crânienne n’affecte également pas l’occlusion chez ces patients.