952 resultados para Méthodes de recherche avec tabous
Resumo:
L’adhésine impliquée dans l’adhérence diffuse (AIDA-I) est une adhésine bactérienne présente chez certaines souches d’Escherichia coli qui, associée aux toxines Stx2e ou STb, contribue à l’apparition de la maladie de l’œdème ou de la diarrhée post-sevrage chez les porcelets. AIDA-I est un autotransporteur qui confère des capacités d’autoaggrégation, de formation de biofilms et d’adhésion. L’objectif principal du projet de recherche consistait en la recherche de récepteur(s) potentiel(s) d’AIDA-I. Les bactéries pathogènes adhèrent aux cellules-cibles soit en liant directement des molécules à la surface cellulaire ou en utilisant des molécules intermédiaires qui permettent de diminuer la distance séparant la bactérie de la cellule-cible. Puisque le sérum est un fluide qui contient de nombreuses molécules, celui-ci a été utilisé comme matériel de départ pour l’isolement de récepteur(s) potentiels. Nous avons isolé un récepteur potentiel à partir du sérum porcin : l’apolipoprotéine A-I. L’interaction entre l’apolipoprotéine A-I et AIDA-I a été confirmée par ELISA et microscopie à fluorescence. La capacité à envahir les cellules épithéliales offre aux pathogènes la possibilité d’établir une niche intracellulaire qui les protègent contre les attaques du milieu extérieur. La présente étude a démontré que la présence d’AIDA-I en tant que seul facteur de virulence chez une souche de laboratoire permet de conférer la capacité d’envahir les cellules sans promouvoir la survie intracellulaire. L’étude de la souche sauvage 2787, exprimant AIDA-I en association avec d’autres facteurs de virulence, a démontré une différence significative pour les phénotypes d’invasion et de survie intracellulaire face à la souche de laboratoire exprimant AIDA-I.
Resumo:
L’objectif de cette recherche qualitative était de porter un regard sur la problématique du poids chez l’homme à partir des déterminants de la santé masculine définis par Courtenay (2003). En donnant la parole à 17 hommes québécois en surpoids lors d’entrevues individuelles, différentes variables associées à leur préoccupation à l’égard du poids, sont examinées. Selon ces hommes, il existe un comportement alimentaire typiquement masculin autant dans le choix des aliments que dans la façon de manger. La présence féminine joue pour eux un rôle prépondérant dans ce domaine. La vision masculine de la santé suit souvent la fonctionnalité de leur corps tandis que leur description du surpoids semble davantage partir du « vécu » et être moins stricte que la définition purement médicale. Néanmoins, beaucoup d’hommes sentent la pression de l’image du corps idéal masculin et sont souvent insatisfaits de leur corps selon la masculinité valorisée et selon la stigmatisation subie. La préoccupation des hommes à l’égard de leur santé est très présente parmi les hommes de 30-45 ans et perdre du poids dans ce contexte devient alors légitime mais les raisons évoquées varient : la santé, l’apparence, le bien-être. L’expression des douleurs émotionnelles autour du poids est difficile pour les hommes et trop souvent la masculinité traditionnelle constitue une barrière de taille à la consultation pour ces problèmes. Pour le futur, il sera donc important pour les professionnels de la santé d’intégrer les différentes caractéristiques de cette masculinité traditionnelle dans leur approche et leur communication avec les hommes en surpoids.
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Resumo:
Introduction : De nos jours, les femmes atteintes de cancer du sein peuvent espérer une survie prolongée et un grand nombre d’entre elles peuvent même entrevoir la guérison. Alors que le dépistage précoce et les traitements rigoureux donnent espoir à de plus en plus de femmes, les chercheurs et les cliniciens doivent maintenant se pencher sur la qualité de vie de ces femmes à chaque phase clinique de la trajectoire de soins. Les difficultés physiques, fonctionnelles, psychologiques et sociales avec lesquelles les femmes vivent peuvent compromettre leur qualité de vie, d’où l’intérêt d’évaluer celle-ci. Peu de chercheurs se sont intéressés au changement longitudinal de la qualité de vie de ces femmes aux différents moments de la trajectoire de soins en oncologie : diagnostic, traitement et suivi. De plus, peu se sont demandés si la perception que les femmes ont de leur communication avec les professionnels de la santé influence leur qualité de vie le long de la trajectoire de soins. Objectifs principaux : 1) Décrire l’évolution de la qualité de vie liée à la santé des femmes atteintes de cancer du sein pendant le diagnostic, les traitements de radiothérapie et le suivi; 2) Décrire l’évolution de la perception que les femmes ont de leur communication avec les médecins, les infirmières et les technologues en radio-oncologie au cours des mêmes phases cliniques; 3) Examiner l’évolution de la relation entre la perception que les femmes ont de leur communication avec les professionnels de la santé et leur qualité de vie liée à la santé durant les phases citées précédemment. Méthodes : L’échantillon se composait de 120 femmes atteintes d’un cancer du sein précoce (stades I et II) qui parlaient le français, âgées de plus de 18 ans (55 ans ± 9,5) qui ont eu une chirurgie conservatrice. Les femmes ont complété des questionnaires à la période entourant le diagnostic (en moyenne six semaines après le diagnostic), à mi-chemin de la radiothérapie (en moyenne 27 semaines après le diagnostic) et de trois à quatre mois après la fin de la radiothérapie (en moyenne 48 semaines après le diagnostic). À chaque temps de mesure, elles ont complété six questionnaires d’une durée totale de 60 minutes au centre hospitalier ou à domicile : un sur les données sociodémographiques, un sur les renseignements médicaux, le MOS SSS, le EORTC QLQ-C30/BR23 et le MCCS. Résultats : Les analyses GEE montrent que la qualité de vie liée à la santé des femmes atteintes de cancer du sein change dans le temps. Elle diminue pendant la radiothérapie, sauf pour le fonctionnement émotionnel et cognitif. Les analyses démontrent aussi que certains facteurs cliniques, intrapersonnels et interpersonnels influencent leur qualité de vie. Précisément, plus les femmes avancent en âge et plus elles perçoivent qu’elles ont eu du soutien social le long de la trajectoire de soins, plus leur qualité de vie est meilleure pour les dimensions génériques et spécifiques du fonctionnement. De plus, celles qui présentent une tumeur de stade II et celles qui ont eu de la radiothérapie et l’hormonothérapie ont des scores plus élevés pour certaines dimensions de qualité de vie comparativement à celles dont le cancer se situe au stade I et à celles qui ont eu la chimiothérapie, la radiothérapie et l’hormonothérapie. Les résultats font état également d’une interaction entre le facteur « temps » et un facteur intrapersonnel pour le fonctionnement « rôle » et le fonctionnement sexuel des femmes. La perception que les femmes ont de leur communication avec les médecins et les autres professionnels de la santé change très peu avec le temps. Ainsi, les femmes se perçoivent plus compétentes dans la recherche d’information avec les radio-oncologues pendant la radiothérapie qu’avec les chirurgiens-oncologues au moment du diagnostic. Elles perçoivent aussi la vérification et la recherche d’information par les radio-oncologues pendant la radiothérapie plus satisfaisante que celle des chirurgiens-oncologues lors de l’annonce du diagnostic. Globalement, les femmes perçoivent leur communication avec les radio-oncologues et les chirurgiens-oncologues comme étant meilleure pendant la radiothérapie et au suivi qu’au moment du diagnostic avec les chirurgiens-oncologues. Les analyses GEE montrent aussi que certains facteurs cliniques (nature des traitements), intrapersonnels et interpersonnels (âge, niveau de scolarité et soutien social perçu) sont des facteurs susceptibles d’influencer la façon dont elles perçoivent leur communication avec les professionnels de la santé. Enfin, la perception des femmes quant à leurs compétences de communication à l’égard des médecins et des autres professionnels de la santé explique davantage leur qualité de vie liée à la santé que celle des compétences des professionnels de la santé. Donc, les femmes ont un meilleur score pour le fonctionnement « rôle », émotionnel et elles ont moins d’effets secondaires et de symptômes pendant la radiothérapie et au suivi lorsqu’elles se perçoivent compétentes envers les médecins (chirurgiens-oncologues et radio-oncologues) pour la recherche d’information et l’aspect socio-affectif d’un entretien aux temps précédents. De plus, l’âge des femmes, le soutien social perçu, le stade de la maladie et la nature des traitements ont une influence sur le lien entre leur qualité de vie et leur communication avec les professionnels de la santé. Enfin, une interaction est présente entre le facteur « temps » et un facteur clinique ou intrapersonnel pour les dimensions de qualité de vie suivantes : rôle, émotionnel et fonctionnement sexuel. Conclusion et retombées : Les résultats de la présente thèse soulignent l’importance d’évaluer de façon longitudinale la qualité de vie liée à la santé des femmes atteintes de cancer du sein à différents moments de la trajectoire de soins, particulièrement pendant la radiothérapie, et, pour les intervenants psychosociaux, de s’occuper des jeunes femmes diagnostiquées et de celles qui ne perçoivent pas recevoir un soutien social. Ainsi, de meilleures ressources psychosociales pourront être mises sur pied pour aider ces groupes de femmes. Les résultats montrent également qu’il est essentiel d’informer les chirurgiens-oncologues de l’importance d’établir une communication satisfaisante avec les femmes atteintes de cancer du sein lors de l’annonce du diagnostic afin de favoriser une perception positive par les femmes de leur communication avec les chirurgiens-oncologues. Enfin, les résultats obtenus soulignent les avantages pour les femmes atteintes de cancer du sein d’être proactives et de se sentir compétentes pour la recherche d’information et l’aspect socio-affectif d’une relation avec les chirurgiens-oncologues et les radio-oncologues dans le maintien d’une bonne qualité de vie liée à la santé.
Resumo:
Cette thèse porte sur le rapport université/entreprise au Mexique après 1990. Il s’agit d’une étude de cas sur l’Université Nationale Autonome du Mexique (UNAM), la plus grande université mexicaine et la plus importante institution productrice de connaissances scientifiques au pays. À partir de 1988, l’introduction au Mexique d’une économie du marché a été le point de départ des nombreux changements politiques et économiques qui ont modifié les conditions d’exploitation des organisations et des institutions au pays. Ainsi, depuis 1990, le nouveau contexte politique et économique du Mexique a modifié les politiques gouvernementales vers les institutions publiques y compris celles de la santé et de l’éducation. Pour ce qui est des universités publiques mexicaines, ces politiques ont réduit leur financement et leur ont demandé une participation plus active à l’économie nationale, par la production de connaissances pouvant se traduire en innovation dans le secteur de la production. Ces nouvelles conditions économiques et politiques constituent des contingences auxquelles les universitaires font face de diverses façons, y compris l’établissement des relations avec les entreprises, comme le prescrivent les politiques du gouvernement fédéral élaborées sur la base des recommandations de l’OCDE. En vue de contribuer à la connaissance des relations université/entreprise développées au Mexique, nous avons réalisé notre étude de cas fondée sur une approche méthodologique qualitative à caractère exploratoire qui a recueilli des données provenant de sources documentaires et perceptuelles. Nous avons encadré notre recherche du point de vue de l’organisation par la théorie de la contingence, et pour l’analyse de la production de la connaissance sur la base des modèles de la Triple hélice et du Mode 2. Différents documents de sources diverses, y compris l’Internet, ont été consultés pour l’encadrement des rapports université/entreprise au Mexique et à l’UNAM. Les sources perceptuelles ont été 51 entrevues semi-structurées auprès de professeurs et de chercheurs à temps plein ayant établi des rapports avec des entreprises (dans les domaines de la biomédecine, la biotechnologie, la chimie et l’ingénierie) et de personnes ayant un rôle de gestion dans les rapports des entreprises avec l’institution. Les données recueillies ont montré que la politique de l’UNAM sur les rapports université/entreprise a été aussi flottante que la structure organisationnelle soutenant sa création et formalisation. Toutes sortes d’entreprises, publiques ou privées collaborent avec les chercheurs de l’UNAM, mais ce sont les entreprises parastatales et gouvernementales qui prédominent. À cause du manque d’infrastructure scientifique et technologique de la plupart des entreprises au Mexique, les principales demandes adressées à l’UNAM sont pour des services techniques ou professionnels qui aident les entreprises à résoudre des problèmes ponctuels. Le type de production de connaissance à l’UNAM continue d’être celui du Mode 1 ou traditionnel. Néanmoins, particulièrement dans le domaine de la biotechnologie, nous avons identifié certains cas de collaboration plus étroite qui pointaient vers l’innovation non linéaire proposée par le Mode 2 et la Triple hélice. Parmi les principaux avantages découlant des rapports avec les entreprises les interviewés ont cité l’obtention de ressources additionnelles pour la recherche, y compris de l’équipement et des fonds pour les bourses d’étudiants, mais souvent ils ont observé que l’un des plus gros avantages était la connaissance qu’ils obtenaient des contacts avec les firmes et le sens du réel qu’ils pouvaient intégrer dans la formation des étudiants. Les programmes gouvernementaux du CONACYT pour la science, la technologie et l’innovation ne semblent pas réussir à renforcer les rapports entre les institutions génératrices de la connaissance et le secteur de la production du Mexique.
Resumo:
Dans ce texte, nous analysons la mise en place d’un système de vélos partagés à Trois-Rivières initié par un organisme faisant de la participation citoyenne son principe fondamental d’action. Cette analyse montre comment l’atteinte des objectifs poursuivis par l’adhésion à ce principe participatif, outre le respect de l’expérience du citoyen dans le développement de son milieu de vie, peut poser problème. La similarité entre le système de vélos conçu avec la participation des citoyens et les systèmes offerts par les groupes industriels met en question la capacité du principe de la participation à produire des solutions alternatives. La difficulté relèverait de la volonté de faire des méthodes participatives un principe nécessaire à la réalisation des idéaux démocratiques des sociétés libérales modernes. Promulguer l’obéissance à des procédures d’action communes, pour elles-mêmes, nous éloigne d’une conception libérale de la démocratie qui s’attache d’abord à l’efficacité de l’action, donc à la qualité de ce qu’elle produit, indépendamment des moyens mis en œuvre.
Resumo:
En urbanisme, l’approche phénoménologique permet de se pencher sur l’expérience de l’individu et, plus précisément, sur le rapport que celui-ci entretient avec son milieu de vie. Cette approche permet de concevoir des milieux de vie mieux adaptés aux besoins et aux expectatives des individus et suppose des démarches d’aménagement qui accordent un rôle important au citoyen. Toutefois, si l’approche phénoménologique est couramment utilisée dans le cadre de travaux théoriques, elle est difficilement adoptée sur le terrain, en dépit de son utilité et des justifications que l’on peut donner à son utilisation au plan éthique. Dans le présent article, nous explorons les raisons d’une telle disparité en levant le voile sur une double difficulté : difficulté professionnelle, d’une part, à dépasser le modèle déterministe du rapport personne–environnement ; difficulté scientifique, d’autre part, à ancrer la production de connaissances dans les processus de transformation du milieu de vie.
Resumo:
La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.
Resumo:
Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.
Resumo:
La fumée du tabac est un aérosol extrêmement complexe constitué de milliers de composés répartis entre la phase particulaire et la phase vapeur. Il a été démontré que les effets toxicologiques de cette fumée sont associés aux composés appartenant aux deux phases. Plusieurs composés biologiquement actifs ont été identifiés dans la fumée du tabac; cependant, il n’y a pas d’études démontrant la relation entre les réponses biologiques obtenues via les tests in vitro ou in vivo et les composés présents dans la fumée entière du tabac. Le but de la présente recherche est de développer des méthodes fiables et robustes de fractionnement de la fumée à l’aide de techniques de séparation analytique et de techniques de détection combinés à des essais in vitro toxicologiques. Une étude antérieure réalisée par nos collaborateurs a démontré que, suite à l’étude des produits de combustion de douze principaux composés du tabac, l’acide chlorogénique s’est avéré être le composé le plus cytotoxique selon les test in vitro du micronoyau. Ainsi, dans cette étude, une méthode par chromatographie préparative en phase liquide a été développée dans le but de fractionner les produits de combustion de l’acide chlorogénique. Les fractions des produits de combustion de l’acide chlorogénique ont ensuite été testées et les composés responsables de la toxicité de l’acide chlorogénique ont été identifiés. Le composé de la sous-fraction responsable en majeure partie de la cytoxicité a été identifié comme étant le catéchol, lequel fut confirmé par chromatographie en phase liquide/ spectrométrie de masse à temps de vol. Des études récentes ont démontré les effets toxicologiques de la fumée entière du tabac et l’implication spécifique de la phase vapeur. C’est pourquoi notre travail a ensuite été focalisé principalement à l’analyse de la fumée entière. La machine à fumer Borgwaldt RM20S® utilisée avec les chambres d’exposition cellulaire de British American Tobacco permettent l’étude in vitro de l’exposition de cellules à différentes concentrations de fumée entière du tabac. Les essais biologiques in vitro ont un degré élevé de variabilité, ainsi, il faut prendre en compte toutes les autres sources de variabilité pour évaluer avec précision la finalité toxicologique de ces essais; toutefois, la fiabilité de la génération de la fumée de la machine n’a jamais été évaluée jusqu’à maintenant. Nous avons donc déterminé la fiabilité de la génération et de la dilution (RSD entre 0,7 et 12 %) de la fumée en quantifiant la présence de deux gaz de référence (le CH4 par détection à ionisation de flamme et le CO par absorption infrarouge) et d’un composé de la phase particulaire, le solanesol (par chromatographie en phase liquide à haute performance). Ensuite, la relation entre la dose et la dilution des composés de la phase vapeur retrouvée dans la chambre d’exposition cellulaire a été caractérisée en utilisant une nouvelle technique d’extraction dite par HSSE (Headspace Stir Bar Sorptive Extraction) couplée à la chromatographie en phase liquide/ spectrométrie de masse. La répétabilité de la méthode a donné une valeur de RSD se situant entre 10 et 13 % pour cinq des composés de référence identifiés dans la phase vapeur de la fumée de cigarette. La réponse offrant la surface maximale d’aire sous la courbe a été obtenue en utilisant les conditions expérimentales suivantes : intervalle de temps d’exposition/ désorption de 10 0.5 min, température de désorption de 200°C pour 2 min et température de concentration cryogénique (cryofocussing) de -75°C. La précision de la dilution de la fumée est linéaire et est fonction de l’abondance des analytes ainsi que de la concentration (RSD de 6,2 à 17,2 %) avec des quantités de 6 à 450 ng pour les composés de référence. Ces résultats démontrent que la machine à fumer Borgwaldt RM20S® est un outil fiable pour générer et acheminer de façon répétitive et linéaire la fumée de cigarette aux cultures cellulaires in vitro. Notre approche consiste en l’élaboration d’une méthodologie permettant de travailler avec un composé unique du tabac, pouvant être appliqué à des échantillons plus complexes par la suite ; ex : la phase vapeur de la fumée de cigarette. La méthodologie ainsi développée peut potentiellement servir de méthode de standardisation pour l’évaluation d’instruments ou de l’identification de produits dans l’industrie de tabac.
Resumo:
Cette thèse porte sur l’appropriation de l’Internet et du multimédias dans la population universitaire d’Afrique francophone, en l’an 2001. Elle couvre six pays : le Bénin, le Burkina Faso, le Cameroun, la Côte d’Ivoire, le Mali et le Togo. La recherche porte sur le recensement des centres de recherche démographique en Afrique francophone subsaharienne et sur une enquête auprès des universités de Yaoundé II et de Douala au Cameroun. La problématique de l’accès et de l’usage est centrale dans notre démarche. Elle est traduite dans la question de recherche suivante : « Dans un contexte dominé par les représentations des NTIC comme symboles de modernité et facteurs d’intégration à l’économie mondiale, quelles sont les modalités d’appropriation de ces technologies par les universitaires des institutions de l’enseignement et de la recherche en Afrique considérées dans cette étude ? » Pour aborder le matériel empirique, nous avons opté pour deux approches théoriques : les théories du développement en lien avec les (nouveaux) médias et la sociologie des innovations techniques. Enracinées dans la pensée des Lumières, complétée et affinée par les approches évolutionnistes inspirées de Spencer, le fonctionnalisme d’inspiration parsonienne et l’économie politique axée sur la pensée de W. W. Rostow, les théories du développement ont largement mis à contribution les théories de la communication pour atteindre leur objet. Alors que la crise de la modernité occidentale menace de délégitimer ces paradigmes, les technologies émergentes leur donnent une nouvelle naissance : dans la continuité de la pensée d’Auguste Comte, le développement est désormais pensé en termes d’intégration à un nouveau type de société, la société de l’information. Cette nouvelle promesse eschatologique et cette foi dans la technique comme facteur d’intégration à la société et à l’économie en réseau habitent tous les projets menés sur le continent, que ce soit le NEPAD, le Fond de solidarité numérique, le projet d’ordinateur à 100$ pour les enfants démunis ou le projet panafricain de desserte satellitaire, le RASCOM. Le deuxième volet de notre cadre de référence théorique est axé sur la sociologie des innovations techniques. Nous mobilisons la sociopolitique des usages de Vedel et Vitalis pour ramener la raison critique dans le débat sur le développement du continent africain, dans l’optique de montrer que la prérogative politique assumée par les États a encore sa place, si l’on veut que les ressources numériques servent à satisfaire les demandes sociales et non les seules demandes solvables essentiellement localisées dans les centres urbains. En refusant le déterminisme technique si courant dans la pensée sur le développement, nous voulons montrer que le devenir de la technique n’est pas inscrit dans son essence, comme une ombre portée, mais que l’action des humains, notamment l’action politique, peut infléchir la trajectoire des innovations techniques dans l’optique de servir les aspirations des citoyens. Sur le plan méthodologique, la démarche combine les méthodes quantitatives et les méthodes qualitatives. Les premières nous permettront de mesurer la présence d’Internet et du multimédia dans l’environnement des répondants. Les secondes nous aideront à saisir les représentations développées par les usagers au contact de ces outils. Dans la perspective socioconstructiviste, ces discours sont constitutifs des technologies, dans la mesure où ils sont autant de modalités d’appropriation, de construction sociale de l’usage. Ultimement, l’intégration du langage technique propre aux outils multimédias dans le langage quotidien des usagers traduit le dernier stade de cette appropriation. À travers cette recherche, il est apparu que les usagers sont peu nombreux à utiliser les technologies audiovisuelles dans le contexte professionnel. Quand à l’Internet et aux outils multimédias, leur présence et leurs usages restent limités, l’accès physique n’étant pas encore garanti à tous les répondants de l’étude. Internet suscite de grandes espérances, mais reste, là aussi, largement inaccessible en contexte professionnel, la majorité des usagers se rabattant sur les lieux publics comme les cybercafés pour pallier l’insuffisance des ressources au sein de leurs institutions d’appartenance. Quant aux représentations, elles restent encore largement tributaires des discours politiques et institutionnels dominants, selon lesquels l’avenir sera numérique ou ne sera pas. La thèse va cependant au-delà de ces données pour dessiner la carte numérique actuelle du continent, en intégrant dans la nouvelle donne technologique la montée fulgurante de la téléphonie cellulaire mobile. Il nous est apparu que l’Internet, dont la diffusion sur le continent a été plus que modeste, pourrait largement profiter de l’émergence sur le continent de la culture mobile, que favorise notamment la convergence entre les mini-portables et la téléphonie mobile.
Resumo:
Cette thèse s’intéresse aux fondements épistémologiques et à la vision que des enseignants d’histoire au secondaire entretiennent à l’égard de l’enseignement de l’histoire et de la formation citoyenne. La réflexion s’inscrit dans le contexte de la refonte des programmes d’enseignement de l’histoire qui engage dorénavant les maîtres d’histoire à éduquer à la citoyenneté démocratique. Ce projet éducationnel repose sur le postulat suivant : l’apprentissage de l’histoire, de sa pensée et de sa méthode permet de former des individus capables de réflexion critique autonome et informée. Cette vision de l’enseignement de l’histoire implique que les élèves s’exercent à la pensée historienne, à l’analyse des sources et à la construction d’interprétations historiques. Ce faisant, ils développeraient une compréhension du monde fondée sur la maîtrise de concepts et une pensée complexe, ce qui servirait de ce fait la citoyenneté. La recherche a par ailleurs démontré que les maîtres avaient recours à des méthodes pédagogiques plus traditionnelles (Charland, 2003; Martineau, 1997). C’est donc à des changements de pratiques qu’appelle le ministère de l’Éducation. Or un tel changement ne se déclare pas « d’en haut ». Les convictions des maîtres sont lentes à se transformer et ce sont elles qui déterminent la formation historienne et citoyenne que recevront les élèves. Nous en avons fait notre objet d’étude pour cette recherche en recourant à la théorie des représentations sociales. Nous avons adopté le modèle du noyau central (Abric, 1994) et celui des principes organisateurs qui permet d’identifier les relations existantes entre plusieurs représentations. Nous avons effectué une recherche exploratoire de type qualitative. Des entretiens individuels semi-dirigés d’une durée moyenne de 120 minutes ont été réalisés avec un échantillon comptant 18 enseignants d’histoire au secondaire de Montréal, de Québec et de communautés amérindiennes du Québec. L’outil de cueillette et d’analyse des données s’inspire grandement des développements méthodologiques réalisés par la recherche sur les représentations sociales (évocation hiérarchisée continuée ou limitée, schémas conceptuels) (Abric, 1994; 1997). Les résultats permettent d’identifier les fondements épistémologiques et didactiques, le contenu et la structure, de même que les relations existant entre les représentations de l’enseignement de l’histoire et de la formation à la citoyenneté. Ils ont également mis en lumière les convictions idéologiques et pédagogiques des maîtres d’histoire.
Resumo:
L’athérosclérose est une maladie qui cause, par l’accumulation de plaques lipidiques, le durcissement de la paroi des artères et le rétrécissement de la lumière. Ces lésions sont généralement localisées sur les segments artériels coronariens, carotidiens, aortiques, rénaux, digestifs et périphériques. En ce qui concerne l’atteinte périphérique, celle des membres inférieurs est particulièrement fréquente. En effet, la sévérité de ces lésions artérielles est souvent évaluée par le degré d’une sténose (réduction >50 % du diamètre de la lumière) en angiographie, imagerie par résonnance magnétique (IRM), tomodensitométrie ou échographie. Cependant, pour planifier une intervention chirurgicale, une représentation géométrique artérielle 3D est notamment préférable. Les méthodes d’imagerie par coupe (IRM et tomodensitométrie) sont très performantes pour générer une imagerie tridimensionnelle de bonne qualité mais leurs utilisations sont dispendieuses et invasives pour les patients. L’échographie 3D peut constituer une avenue très prometteuse en imagerie pour la localisation et la quantification des sténoses. Cette modalité d’imagerie offre des avantages distincts tels la commodité, des coûts peu élevés pour un diagnostic non invasif (sans irradiation ni agent de contraste néphrotoxique) et aussi l’option d’analyse en Doppler pour quantifier le flux sanguin. Étant donné que les robots médicaux ont déjà été utilisés avec succès en chirurgie et en orthopédie, notre équipe a conçu un nouveau système robotique d’échographie 3D pour détecter et quantifier les sténoses des membres inférieurs. Avec cette nouvelle technologie, un radiologue fait l’apprentissage manuel au robot d’un balayage échographique du vaisseau concerné. Par la suite, le robot répète à très haute précision la trajectoire apprise, contrôle simultanément le processus d’acquisition d’images échographiques à un pas d’échantillonnage constant et conserve de façon sécuritaire la force appliquée par la sonde sur la peau du patient. Par conséquent, la reconstruction d’une géométrie artérielle 3D des membres inférieurs à partir de ce système pourrait permettre une localisation et une quantification des sténoses à très grande fiabilité. L’objectif de ce projet de recherche consistait donc à valider et optimiser ce système robotisé d’imagerie échographique 3D. La fiabilité d’une géométrie reconstruite en 3D à partir d’un système référentiel robotique dépend beaucoup de la précision du positionnement et de la procédure de calibration. De ce fait, la précision pour le positionnement du bras robotique fut évaluée à travers son espace de travail avec un fantôme spécialement conçu pour simuler la configuration des artères des membres inférieurs (article 1 - chapitre 3). De plus, un fantôme de fils croisés en forme de Z a été conçu pour assurer une calibration précise du système robotique (article 2 - chapitre 4). Ces méthodes optimales ont été utilisées pour valider le système pour l’application clinique et trouver la transformation qui convertit les coordonnées de l’image échographique 2D dans le référentiel cartésien du bras robotisé. À partir de ces résultats, tout objet balayé par le système robotique peut être caractérisé pour une reconstruction 3D adéquate. Des fantômes vasculaires compatibles avec plusieurs modalités d’imagerie ont été utilisés pour simuler différentes représentations artérielles des membres inférieurs (article 2 - chapitre 4, article 3 - chapitre 5). La validation des géométries reconstruites a été effectuée à l`aide d`analyses comparatives. La précision pour localiser et quantifier les sténoses avec ce système robotisé d’imagerie échographique 3D a aussi été déterminée. Ces évaluations ont été réalisées in vivo pour percevoir le potentiel de l’utilisation d’un tel système en clinique (article 3- chapitre 5).
Resumo:
Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).
Resumo:
Le Québec reçoit chaque année un nombre croissant de travailleurs agricoles temporaires, à travers deux programmes : le Programme des travailleurs agricoles saisonniers (principalement Mexicains) et le Programme des travailleurs peu qualifiés (pour l’instant Guatémaltèques). Une de leurs caractéristiques communes est le lien fixe à l’employeur imposé aux travailleurs. Cette recherche analyse la conformité de cette disposition avec l’article 46 de la Charte québécoise qui garantit le droit à des conditions de travail justes et raisonnables. Un examen des effets du lien fixe démontre que celui-ci établit une dépendance forte des travailleurs envers leur employeur, aux niveaux légal (du fait de la possibilité du rapatriement anticipé en cas de problèmes liés au travail ou au comportement), financier (dû à la nomination des travailleurs année après année et au dépôt de sécurité imposé aux travailleurs guatémaltèques) et psychologique (soumission, crainte). L’interprétation de l’article 46 à la lumière du droit international des droits de la personne met en évidence la non conformité du lien fixe avec cette disposition. Or si l’objectif de cette mesure est de retenir la main-d’oeuvre dans le secteur agricole, il serait plus juste et raisonnable d’améliorer les conditions de travail de cette main-d’oeuvre plutôt que de l’asservir.