996 resultados para taille de particule
Resumo:
INTRODUCTION : L’insuffisance cardiaque congestive (ICC) induit remodelage pulmonaire et dysfonction ventriculaire droite (VD) qui contribuent de façon importante à la morbidité/mortalité. Malgré l’efficacité prouvée, l’antagonisme des récepteurs minéralocorticoïdes est sous-utilisé en ICC et ses mécanismes d’actions demeurent incompris. Nous avons évalué si l’Aldostérone contribue au remodelage pulmonaire et à la dysfonction VD en stimulant la prolifération des myofibroblastes (MYFs) pulmonaires. MÉTHODE ET RÉSULTATS : L’étude a été réalisée chez des rats avec infarctus du myocarde (IM) de taille modérée à grande permettant le développement de l’ICC. Deux semaines après l’IM, les rats ont été traités avec 100mg/kg/jour d’Aldactone ou non, pendant trois semaines et comparé à un groupe témoin (N=21;24;8). Comparativement au groupe témoin, les rats IM ont développé une ICC caractérisée par une réduction de la fraction de raccourcissement du VG (53±1%vs.16±2%, moyenne±ESM, P<0.0001), une hypertension pulmonaire (PSVD:27±1vs.40±3mmHg, P<0.01) et une hypertrophie VD (VD/(VG+Septum):24±1%vs.38±3%, P<0.05). L’Aldactone n’a eu aucun effet sur ces paramètres. Les rats IM ont développé un syndrome pulmonaire caractérisé par un abaissement de la courbe respiratoire pression-volume, un remodelage structurel pulmonaire avec doublement du poids poumon sec (P<0.01) et de la fibrose pulmonaire avec augmentation du taux de collagène dans les poumons (P<0.05). L’Aldactone n’a pas restauré la fonction pulmonaire. Enfin, les MYFs pulmonaires isolés n’ont pas proliféré avec l’exposition de 48h aux deux traitements d’Aldostérone (10-7M, 10-6M). CONCLUSION : L’Aldostérone ne contribue pas au remodelage pulmonaire et à la dysfonction VD associés à l’ICC. D’autres mécanismes d’actions sont responsables des effets bénéfiques de l’Aldactone.
Resumo:
Chez les patients asthmatiques, on retrouve un remodelage de la matrice extracellulaire des poumons, caractérisé par une augmentation du collagène ou fibrose de la couche sous-épithéliale des voies respiratoires. Le souffle, maladie inflammatoire chronique des voies respiratoires inférieures des chevaux matures, présente des similarités physiopathologiques avec l’asthme humain, incluant le remodelage. Ceci nous conduit à l’hypothèse que la fibrose de la couche sous-épithéliale pourrait être une composante des lésions pulmonaires chez les chevaux affectés, ce que notre étude avait pour objectif d’évaluer. Des biopsies pulmonaires périphériques réalisées par voie thoracoscopique ont été obtenues chez 5 chevaux témoins et 6 chevaux atteints du souffle, avant (T0) et après une stimulation antigénique de 30 jours avec du foin moisi et de la paille. Avant le début de l’étude, les sujets étaient en rémission clinique et ne démontraient aucun signe clinique de maladie. Un examen microscopique des échantillons prélevés a été réalisé après traitement au picrosirius-rouge, colorant spécifique des fibres de collagène. La surface du collagène de la couche sous-épithéliale a été mesurée et corrigée en fonction de la taille de la voie respiratoire en utilisant des techniques morphométriques standards. Les chevaux atteints de souffle ont une surface de collagène plus grande dans la couche sous-épithéliale (p<0.1) en comparaison avec les chevaux témoins. La fibrose de la couche sous-épithéliale demeure inchangée chez les chevaux malades après la stimulation antigénique de 30 jours. À T0, la fibrose de la couche sous-épithéliale est associée positivement aux variations maximales de pression pleurale et à la résistance pulmonaire chez les chevaux atteints de souffle. Les résultats de cette étude suggèrent qu’une fibrose de la couche sous-épithéliale est présente dans les voies respiratoires périphériques des chevaux atteints de souffle et contribue au déficit de fonction résiduel pulmonaire observé lors de rémission clinique.
Resumo:
Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.
Resumo:
Dans le cadre de ce mémoire, les relations entre morphologie, locomotion et croissance chez les hominoïdes sont analysées sous l'angle des proportions métaphysaires et de leur acquisition. Plusieurs niveaux d'analyse — intermembre, supérieur et inférieur — sont abordés dans une perspective ontogénique. La masse corporelle et la direction des charges influencent la morphologie des surfaces articulaires et métaphysaires mais aussi leur développement. Les charges étant dépendantes du mode locomoteur et celui-ci se modifiant en fonction de l'âge, on tente de voir à quel(s) moment(s) les changements proportionnels ont lieu et pourquoi ils apparaissent. Des mesures linéaires ont été recueillies sur l'humérus, le radius, le fémur et le tibia sur un échantillon squelettique des espèces H. sapiens, P. troglodytes, G. gorilla et P. pygmaeus. À partir de ces mesures et du calcul de certains ratios, des comparaisons intra et interspécifiques ont été réalisées. Les différences les plus significatives entre les espèces se dévoilent au niveau intermembre et sont relatives aux différents pourcentages d'utilisation des membres supérieurs ou inférieurs. Au sein des espèces, les résultats révèlent une similarité dans les réactions des surfaces métaphysaires au niveau intermembre, supérieur et inférieur. Les changements proportionnels ont lieu entre les stades 0 et 1 pour H. sapiens (première marché indépendante), entre les stades 2 et 4 pour P. troglodytes (majorité du poids corporel soutenue par les membres inférieurs) et entre les stades 3 et 5 pour G. gorilla (taille adulte et quadrupédie très majoritaire). Pour P. pygmaeus aucun stade en particulier n'a été ciblé par les analyses et cela concorde avec l'homogénéité de ses modes de locomotion employés au cours de la vie. Les différences proportionnelles répondent à des changements locomoteurs majeurs. Australopithecus afarensis est intermédiaire entre H. sapiens et les grands singes pour de nombreuses comparaisons. Au niveau du genou, les plus jeunes individus A. afarensis ne montrent pas de morphologie bipède, similaire aux humains.
Resumo:
Le mouvement masticatoire est généré et coordonné par un générateur de patron central (GPC) situé au niveau du pont. Plusieurs résultats antérieurs de notre laboratoire soutiennent que le réseau de neurones à l’origine de la rythmogénèse est situé dans le noyau sensoriel principal du nerf trijumeau (NVsnpr). Ces mêmes expériences révèlent que des diminutions de la concentration calcique extracellulaire ([Ca2+]e) tiennent une place importante dans la génération des bouffées de décharges des neurones de cette région. Notre laboratoire tente de vérifier si la contribution des astrocytes à l’homéostasie de la concentration calcique extracellulaire est impliquée dans la genèse du rythme. Cette étude a pour but la caractérisation spatiale du syncytium astrocytaire au sein du NVsnpr dorsal et l’étude de l’effet de la [Ca2+]e sur les propriétés astrocytaires électrophysiologiques et de connectivité. Nous avons utilisés pour ce faire la technique d’enregistrement par patch-clamp sur une préparation en tranche de tronc cérébral de rat. Nous démontrons ici que la diminution de la [Ca2+]e n’affecte pas les propriétés électrophysiologiques astrocytaires, mais induit une augmentation de la taille du syncytium. De plus, nous établissons l’existence au sein du NVsnpr dorsal d’une organisation anatomofonctionnelle du réseau astrocytaire calquée sur l’organisation neuronale.
Resumo:
Les nouvelles technologies de l’information et des communications occupent aujourd’hui une place importante dans les entreprises, quelle que soit la taille ou le(s) domaine(s) d’activité de ces dernières. Elles participent de manière positive au développement de la vie économique. Elles sont toutefois à l’origine d’une nouvelle forme de criminalité qui menace la sécurité et l’intégrité des systèmes informatiques dans l’entreprise. Celle-ci est d’une ampleur difficile à évaluer, mais surtout difficile à maîtriser avec les dispositions législatives déjà en place, laissant par là même apparaître qu’une adaptation au niveau juridique est inévitable. Certains pays industrialisés ont ainsi décidé de mettre en place un cadre juridique adéquat pour garantir aux entreprises la sécurité de leurs systèmes informatiques. Notre étude va justement porter sur les dispositifs mis en place par deux systèmes juridiques différents. Forcés de prendre en compte une réalité nouvelle – qui n’existait pas nécessairement il y a plusieurs années –, la France et le Canada ont décidé de modifier respectivement leurs codes pénal et criminel en leur ajoutant des dispositions qui répriment de nouvelles infractions. À travers cet exposé, nous allons analyser les infractions qui portent atteinte à la sécurité du système informatique de l’entreprise à la lumière des outils juridiques mis en place. Nous allons mesurer leur degré d’efficacité face à la réalité informatique. En d’autres termes, il s’agit pour nous de déterminer si le droit va répondre ou non aux besoins de l’informatique.
Resumo:
Des données de Statistique Canada montrent que le Québec a perdu 86 700 emplois manufacturiers nets entre 2004 et 2008, ce qui représente un recul de 13,8% (Bernard, 2009). Un dollar canadien fort, la concurrence internationale, les délocalisations de la production et les consolidations globales d'opérations sont souvent mentionnés comme étant les causes des difficultés du secteur manufacturier canadien - principalement concentré au Québec et en Ontario. La crise financière amorcée à l’été 2007, a contribué à aggraver la crise propre au secteur manufacturier dont les origines remontent au début des années 2000 (Weir, 2007; AgirE, 2008; Pilat et al., 2006). Cette recherche examine le processus de restructuration du secteur manufacturier québécois de manière détaillée au niveau des établissements afin d’en évaluer l’ampleur et la nature entre 2003 et 2008. Les données colligées permettent de poser un regard unique et original sur les restructurations ayant impliqué des licenciements collectifs au Québec. Ces données sont issues de deux sources. D'abord, nous avons utilisé une liste d‘entreprises qui ont envoyé un avis de licenciement collectif au Ministère de l’Emploi et de la Solidarité sociale du Québec entre 2003 et 2008. En second lieu, nous avons eu recours aux archives en ligne des médias pour trouver d’autres évènements de restructuration non rapportés par le ministère ainsi que pour obtenir des informations complémentaires sur les évènements déjà compilés dans la liste du ministère. Notre méthodologie de recherche et notre typologie analytique des types de restructuration sont basées sur celles développées par l’European Monitoring Center on Change (EMCC) et reprises dans certaines études comme celles de Bronfenbrenner et Luce (2004) et Hickey et Schenk (soumis). Les résultats, présentés en termes d’événements de restructuration et d’emplois perdus, sont ventilés en fonction de quelques variables (année d’occurrence, taille de l’établissement, sous-secteur d’activité, intensité technologique, région administrative, types de restructuration). Les raisons données par l’entreprise afin de justifier la restructuration ont aussi été colligées. Au cours de la période étudiée, nous avons identifié au total 1 631 évènements de restructurations dans le secteur manufacturier à travers toutes les régions du Québec, qui ont entraîné la perte de 129 383 emplois. Ainsi, 78 246 emplois ont été perdus suite à la réduction des activités de l‘établissement et 51 137 emplois l’ont été suite à la fermeture de leur établissement. La forme la plus fréquente de restructuration est la restructuration interne, suivi par la faillite/fermeture. Les types de restructuration qui ont engendré le plus de pertes d’emplois en moyenne par évènement sont dans l’ordre, la délocalisation, la sous-traitance, la consolidation d’activités ainsi que la fusion-acquisition. L’année 2008 fut celle où il y a eu le plus grand nombre de restructurations. Montréal et la Montérégie sont les régions qui ont le plus été touchées par la restructuration, les pertes d’emplois et les fermetures d’établissements. Les industries à faible intensité technologique ont davantage été frappées par la crise manufacturière. C’est le sous-secteur du papier et du bois qui connu le plus grand nombre d’événements de restructurations. Ce sous-secteur a aussi subi les pertes d’emplois les plus importantes, suivi par le sous-secteur du textile et du vêtement. Ces deux industries se partagent plus de la moitié des fermetures d’établissements. L’insuffisance de la demande (22,1%), la concurrence internationale (14,3%), la hausse de la valeur du dollar canadien (11,2%), la réorganisation interne de l’entreprise (11,1%), la rationalisation des coûts visant une augmentation de la profitabilité (10,1%) ainsi que les difficultés financières (9,9%) sont les motifs principaux donnés par les employeurs. Nos résultats montrent qu’il y a eu deux temps dans l’évolution de la restructuration du secteur manufacturier au Québec. Un premier temps au début de la période où des changements structurels profonds ont été observés dans certaines industries (p.ex. le bois-papier et le textile-vêtement) et un second temps, en fin de période caractérisé par des changements davantage liés à la conjoncture en raison de la crise économique dont les effets commençaient à se faire sentir à ce moment (Institut de la statistique du Québec, 2009a).
Resumo:
Le neuroblastome (NB) est la tumeur solide extracranienne la plus fréquente et mortelle chez les jeunes enfants. Il se caractérise par une résistance à la chimiothérapie possiblement en partie dû à la présence de cellules initiatrices de tumeurs (TICs). Des études ont mis en évidence le rôle de CD133 comme un marqueur des TICs dans divers types de cancers. Les buts de notre travail étaient d’abord de démontrer les vertus de TICs des cellules exprimant CD133 et ensuite, en utilisant une analyse globale du génome avec des polymorphismes nucléotidiques simples (SNPs), d’effectuer une analyse différentielle entre les TICs et les autres cellules du NB afin d’en identifier les anomalies génétiques spécifiques. Des lignées cellulaires de NB ont été triées par cytométrie de flux afin d’obtenir deux populations: une enrichie en CD133 (CD133high), l’autre faible en CD133 (CD133low). Afin de déterminer si ces populations cellulaires présentent des propriétés de TICs, des essais sur les neurosphères, les colonies en agar mou et les injections orthotopiques de 500 cellules sélectionnées dans 11 souris ont été réalisées. Après une isolation de l’ADN des populations sélectionnées, nous avons effectué une analyse génotypique par SNP utilisant les puces « Affymetrix Genome-Wide Human SNP Array 6.0 ». Pour vérifier l’expression des gènes identifiés, des Western Blots ont été réalisés. Nos résultats ont démontré que la population CD133 avait des propriétés de TICs in vitro et in vivo. L’analyse génotypique différentielle a permis d’identifier deux régions communes (16p13.3 and 19p13.3) dans la population CD133high ayant des gains et deux autres régions (16q12.1 and 21q21.3) dans la population CD133low possédant des pertes d’hétérozygoties (LOH). Aucune perte n’a été observée. Parmi les gènes étudiés, l’expression protéique d’éphrine-A2 était corrélée à celle de CD133 dans 6 tumeurs et 2 lignées cellulaires de NB. De plus, l’augmentation de la concentration d’anticorps anti-éphrine-A2 dans le milieu diminue la taille des neurosphères. Ainsi, la population CD133high, qui a des vertus de TICs, possède des caractéristiques génotypiques différentes par rapport à celle CD133low. La présence d’éphrine-A2 dans les cellules exprimant CD133 souligne son importance dans le développement des TICs. Ces résultats suggèrent la présence de potentielle cible pour de nouvelles thérapeutiques ciblant les TICs mise en évidence par l’étude génomique.
Resumo:
Le sujet de cette thèse est l'étude des progressions arithmétiques dans les nombres entiers. Plus précisément, nous nous intéressons à borner inférieurement v(N), la taille du plus grand sous-ensemble des nombres entiers de 1 à N qui ne contient pas de progressions arithmétiques de 3 termes. Nous allons donc construire de grands sous-ensembles de nombres entiers qui ne contiennent pas de telles progressions, ce qui nous donne une borne inférieure sur v(N). Nous allons d'abord étudier les preuves de toutes les bornes inférieures obtenues jusqu'à présent, pour ensuite donner une autre preuve de la meilleure borne. Nous allons considérer les points à coordonnés entières dans un anneau à d dimensions, et compter le nombre de progressions arithmétiques qu'il contient. Pour obtenir des bornes sur ces quantités, nous allons étudier les méthodes pour compter le nombre de points de réseau dans des sphères à plusieurs dimensions, ce qui est le sujet de la dernière section.
Resumo:
Ce mémoire porte sur une étude du corps dans sa dimension socioculturelle. À partir d’entrevues sous le mode du récit de vie, je cherche à comprendre les manières dont les différences qui passent par le corps participent à définir les individus, en fonction des connotations culturelles qui y sont rattachées. Ces différences sont définies comme des composantes du corps qui sont perçues comme une déviation de la norme sachant que celle-ci est établie par une culture dominante. Trois corps différents ont fait l’objet de cette étude : un corps de petite taille, un corps de race noire et un corps tatoué. Cette démarche est essentiellement ancrée dans un cadre théorique faisant écho aux études culturelles telles que définies par Stuart Hall (1997) et aux études de genres selon Judith Butler (2001). Elle émerge du principe d’après lequel le corps est un réservoir de signes dont les connaissances produites à l’intérieur du système social contribuent à créer des sujets. Ce travail s’organise autour de questions qui touchent aux pratiques culturelles qui participent à la construction du corps, à la production des différences, à l’inscription des différences dans le corps et au processus de subjectivation des individus. De plus, il est suggéré que les connotations négatives associées aux différences créent des systèmes de classification hiérarchisés marqués par des formes de discrimination des groupes dominés. Ce travail aboutit à une mise en évidence des différences comme des éléments organisant les relations sociales à travers des rapports de pouvoir dont l’exercice rappelle la structure de la société disciplinaire telle qu’étudiée par Michel Foucault (1975).
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Ce travail financé par l'ACDI a été réalisé au Laboratoire TRANSNUT de l'Université de Montréal (Canada)en collaboration avec le Laboratoire National de Santé Publique (Burkina Faso) et HKI-Burkina Faso.
Resumo:
Le diabète de type 1 (DT1) est une maladie complexe qui requiert une implication importante des patients pour contrôler leur glycémie et ainsi prévenir les complications et comorbidités. L’activité physique (AP) régulière et une attention constante pour les glucides ingérés sont des adjuvants essentiels au traitement insulinique. Nous avons démontré que le questionnaire BAPAD-1, spécifiquement développé pour des adultes atteints de DT1, est un outil valide (validité prédictive, fiabilité interne et reproductibilité) pour définir des barrières associées à l’AP. Bien que le niveau de barrières envers l’AP soit faible, la crainte de l’hypoglycémie est la barrière la plus importante chez cette population. L’adoption d’un mode de vie actif est associée à un profil corporel favorable. Les adultes, avec un DT1 et non diabétique, qui maintiennent un bon niveau d’AP, soit un ratio entre la dépense énergétique totale et celle au repos ≥ 1.7, ont une masse grasse, un indice de masse corporelle et un tour de taille significativement inférieurs à ceux d’adultes moins actifs. Le niveau d’AP peut être estimé au moyen d’un moniteur d’AP comme le SenseWear Armband™. Afin de compléter les études de validation de cet outil, nous avons évalué et démontré la reproductibilité des mesures. Toutefois, la dépense énergétique est sous-estimée durant les 10 premières minutes d’une AP d’intensité modérée sur ergocycle. L’utilisation de cet appareil est donc justifiée pour une évaluation de la dépense énergétique sur de longues périodes. Le calcul des glucides est une méthode largement utilisée pour évaluer la quantité d’insuline à injecter lors des repas. Nous avons évalué dans un contexte de vie courante, sans révision de la technique, la précision des patients pour ce calcul. L’erreur moyenne est de 15,4 ± 7,8 g par repas, soit 20,9 ± 9,7 % du contenu glucidique. L’erreur moyenne est positivement associée à de plus grandes fluctuations glycémiques mesurées via un lecteur de glucose en continu. Une révision régulière du calcul des glucides est probablement nécessaire pour permettre un meilleur contrôle glycémique. Nous avons développé et testé lors d’un essai clinique randomisé contrôlé un programme de promotion de l’AP (PEP-1). Ce programme de 12 semaines inclut une séance hebdomadaire en groupe ayant pour but d’initier l’AP, d’établir des objectifs et d’outiller les adultes atteints de DT1 quant à la gestion de la glycémie à l’AP. Bien que n’ayant pas permis d’augmenter la dépense énergétique, le programme a permis un maintien du niveau d’AP et une amélioration de la condition cardio-respiratoire et de la pression artérielle. À la fin du programme, une plus grande proportion de patients connaissait la pharmacocinétique de l’insuline et une plus grande variété de méthodes pour contrer l’hypoglycémie associée à l’AP était utilisée. En conclusion, le diabète de type 1 engendre des défis quotidiens particuliers. D’une part, le calcul des glucides est une tâche complexe et son imprécision est associée aux fluctuations glycémiques quotidiennes. D’autre part, l’adoption d’un mode de vie actif, qui est associée à un meilleur profil de composition corporelle, est limitée par la crainte des hypoglycémies. Le programme PEP-1 offre un support pour intégrer l’AP dans les habitudes de vie des adultes avec un DT1 et ainsi améliorer certains facteurs de risque cardio-vasculaire.
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.
Resumo:
L’exposition prolongée par inhalation à des poussières de taille respirable contenant de la silice cristalline est reconnue pour causer des maladies respiratoires dont le cancer du poumon et la silicose. De nombreuses études ont relevé la surexposition des travailleurs de la construction à la silice cristalline, puisque ce composé est présent dans de nombreux matériaux utilisés sur les chantiers. L’évaluation de l’exposition à la silice cristalline dans cette industrie constitue un défi en raison de la multitude de conditions de travail et de la nature éphémère des chantiers. Afin de mieux cerner cette problématique, une banque de données d’exposition professionnelle compilée à partir de la littérature a été réalisée par une équipe de l’Université de Montréal et de l’IRSST, et constitue le point de départ de ce travail. Les données présentes dans la banque ont été divisées en fonction de la stratégie d’échantillonnage, résultant en deux analyses complémentaires ayant pour objectif d’estimer les niveaux d’exposition sur le quart de travail en fonction du titre d’emploi, et selon la nature de la tâche exécutée. La méthode de Monte Carlo a été utilisée pour recréer les échantillons provenant de données rapportées sous forme de paramètres de synthèse. Des modèles Tobit comprenant les variables de titre d’emploi, tâche exécutée, durée, année et stratégie d’échantillonnage, type de projet, secteur d’activité, environnement et moyens de maîtrise ont été développés et interprétés par inférence multimodèle. L’analyse basée sur le quart de travail a été réalisée à partir de 1346 données d’exposition couvrant 11 catégories de titre d’emploi. Le modèle contenant toutes les variables a expliqué 22% de la variabilité des mesures et la durée, l’année et la stratégie d’échantillonnage étaient d’importants prédicteurs de l’exposition. Les chantiers de génie civil et les projets de nouvelle construction étaient associés à des expositions plus faibles, alors que l’utilisation de moyens de maîtrise diminuait les concentrations de 18% à l’extérieur et de 24% à l’intérieur. Les moyennes géométriques les plus élevées prédites pour l’année 1999 sur 8 heures étaient retrouvées chez les foreurs (0.214 mg/m3), les travailleurs souterrains (0.191 mg/m3), les couvreurs (0.146 mg/m3) et les cimentiers-applicateurs (0.125 mg/m3). 1566 mesures réparties en 27 catégories de tâches étaient contenues dans la seconde analyse. Le modèle contenant toutes les variables a expliqué 59% des niveaux d’exposition, et l’ensemble des variables contextuelles étaient fortement prédictives. Les moyennes géométriques prédites pour l’année 1998 et selon la durée médiane par tâche dans la banque de données étaient plus élevées lors du bouchardage du béton (1.446 mg/m3), du cassage de pièces de maçonnerie avec autres outils (0.354 mg/m3), du décapage au jet de sable (0.349 mg/m3) et du meulage de joints de brique (0.200 mg/m3). Une diminution importante des concentrations a été observée avec les systèmes d’arrosage (-80%) et d’aspiration des poussières (-64%) intégrés aux outils. L’analyse en fonction des titres d’emploi a montré une surexposition généralisée à la valeur guide de l’ACGIH et à la norme québécoise, indiquant un risque à long terme de maladies professionnelles chez ces travailleurs. Les résultats obtenus pour l’évaluation en fonction de la tâche exécutée montrent que cette stratégie permet une meilleure caractérisation des facteurs associés à l’exposition et ainsi de mieux cibler les priorités d’intervention pour contrôler les niveaux d’exposition à la silice cristalline sur les chantiers de construction durant un quart de travail.