997 resultados para Cas multiples
Resumo:
Au Québec, les personnes âgées hospitalisées nécessitant un hébergement dans le secteur public peuvent être déplacées plusieurs fois au sein d’un hôpital et de différents établissements jusqu’à ce qu’une place permanente soit disponible. Cette pratique peut avoir des conséquences sur leur santé. Les significations qu’accordent les personnes âgées à cette expérience sont peu connues alors qu’elles peuvent influencer leur processus transitionnel et les conséquences sur leur santé et leur bien-être. Basée sur la théorie de transitions de Meleis (2010), une micro ethnographie critique ayant pour but de comprendre les significations du processus transitionnel de personnes âgées hospitalisées nécessitant un hébergement et vivant de multiples relocalisations a été conçue. L’échantillon était composé de huit personnes âgées ayant vécu au moins deux relocalisations durant leur attente d’hébergement. Des entrevues semi-dirigées et des conversations informelles ont été utilisées. L’analyse des données a respecté la méthode décrite par Braun et Clarke (2006). Les résultats de cette analyse thématique ont démontré que les personnes âgées vivent, durant leur expérience transitionnelle, des discontinuités spatio-temporelles auxquelles elles attribuent différentes significations. Ces significations correspondent à la perception de vivre de longues périodes d’attente dans des milieux temporaires, des déménagements rapides et impromptus et des coupures affectives. L’incertitude et l’impuissance ressenties à divers degrés d’intensité par les personnes âgées sont également des significations qui ressortent du processus transitionnel. Une autre signification accordée par les personnes âgées à leur expérience de transitions est l’importance des « petites choses » de la vie quotidienne. Les connaissances issues de cette étude ont des implications pour les différents champs d’activités des infirmières. Notamment, elles offrent des pistes pour favoriser la santé et le bien-être des personnes âgées vivant un processus transitionnel.
Resumo:
Ce mémoire vise à comprendre comment, par la représentation de politiciens en tant que personnalités publiques « célèbres », se pose un ensemble d’enjeux de pouvoir. L’analyse de la récurrence et des particularités de ces représentations, qui circulent dans et à travers le discours, permet de mieux comprendre comment s’exerce le pouvoir par, entre autres, la naturalisation. Cette recherche s’appuie principalement sur les concepts de représentation proposé par Hall (1997) et de pouvoir élaboré par Foucault. Le cas de Justin Trudeau, objet d’un ensemble de discours de célébrité produits à travers le discours médiatique à l’occasion de la course à la chefferie du Parti libéral du Canada (PLC), constitue un terrain riche pour l’analyse. Dans un premier temps, les représentations existantes et en circulation dans des textes médiatiques portant et produisant diverses significations sont analysées discursivement. Dans un deuxième temps, l’analyse s’attarde aux savoirs que ces représentations participent à produire et aux effets de pouvoir qu’elles induisent. Il est alors possible de comprendre que les représentations dont fait l’objet le politicien célèbre d’aujourd’hui sont organisées par la filiation et que ce mode d’organisation procède à la fois de la biographisation et de l’hétéronormativité.
Resumo:
L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.
Resumo:
La présente thèse est construite en trois parties. La première partie est précédée du chapitre 1 qui présente les premières données du travail de terrain sur les femmes hassidiques Belz, l’éducation des jeunes enfants et l’histoire de la communauté. La première partie est composée de trois chapitres qui analysent les notions relatives à la petite enfance, notamment sa définition et sa conception à travers l’histoire humaine récente et selon différentes cultures. Le chapitre 2 examine la question de la petite enfance en soi et des conditions qui la définissent. Le chapitre 3 analyse l’institutionnalisation de la petite enfance dans le monde moderne contemporain. Le chapitre 4 analyse l’avènement de la norme scientifique et son impact sur la petite enfance en ce qui a trait à l’éducation et au développement. Ces chapitres analysent notamment l’éducation en petite enfance en CPE (Centres de la petite enfance) au Québec. La deuxième partie de la thèse, composée aussi de trois chapitres, présente les paradigmes scientifiques et les cadres conceptuels dominants en petite enfance. Le chapitre 5 explique l’impact du « néolibéralisme » ou de la modernité avancée en petite enfance. Le chapitre 6 présente le nouveau paradigme du « postfondamentalisme » en petite enfance et le chapitre 7, celui de l’éco-éducation ainsi que la posture de « l’écosophie » en petite enfance. Ce dernier propose une application pédagogique de l’éco-éducation et de l’écosophie en petite enfance. La troisième partie fait état du travail de terrain en anthropologie au sein de la communauté féminine des Hassidim Belz de Montréal, notamment au sein des services de garde en milieux familial accrédités par le ministère de la Famille du Québec. Elle se divise en deux chapitres. Le chapitre 8 analyse l’incident de la Directive contre l’enseignement religieux en services de garde subventionnés. Le chapitre 9 propose les résultats du travail de terrain sur la philosophie de vie et la spiritualité des femmes hassidiques Belz de Montréal. La conclusion générale intègre le paradigme de l’éco-éducation et la posture de « l’écosophie » en petite enfance à la philosophie de vie et la spiritualité des femmes hassidiques Belz de Montréal. Elle propose un « réenchantement » du développement et de l’éducation en petite enfance.
Processus d'acquisition de nouvelles connaissances en urbanisme : le cas de l'îlot de chaleur urbain
Resumo:
Dans le contexte du changement climatique, la chaleur est, depuis le début des années 2000, une préoccupation grandissante, d’abord en tant qu’enjeu sanitaire puis comme problématique affectant la qualité de vie des citoyens. Au Québec, le concept d’îlot de chaleur urbain, issu de la climatologie urbaine, a graduellement émergé dans le discours des autorités et de certains acteurs de l’aménagement. Or, on constate l’existence d’un certain décalage entre les connaissances scientifiques et l’interprétation qu’en font les urbanistes. Dans le cadre de ce mémoire, on a tenté d’identifier les facteurs explicatifs de ce décalage en s’intéressant au processus d’acquisition des connaissances des urbanistes québécois. Par le biais d’entretiens réalisés auprès des principaux acteurs ayant contribué à l’émergence de l’ICU au Québec, on a été en mesure d’identifier les éléments ayant entraîné certaines distorsions des connaissances. L’absence d’interdisciplinarité entre la climatologie urbaine et l’urbanisme tout au long du processus d’acquisition des connaissances ainsi qu’une interprétation tronquée de la carte des températures de surface expliquent principalement la nature du décalage observé.
Resumo:
La chimie est un sujet difficile étant donné ses concepts nombreux et souvent peu intuitifs. Mais au-delà de ces difficultés d’ordre épistémologique, l’apprentissage de la chimie peut être en péril lorsqu’il s’appuie sur des fondations instables, mêlées de conceptions alternatives. Les conceptions alternatives sont les représentations internes, tacites, des étudiants, qui sont en désaccord avec la théorie scientifiquement acceptée. Leur présence dans leur esprit peut nuire à la compréhension conceptuelle, et elle peut mener les étudiants à expliquer le comportement de la matière incorrectement et à faire des prédictions inexactes en chimie. Les conceptions alternatives sont réputées répandues et difficiles à repérer dans un cadre traditionnel d’enseignement. De nombreuses conceptions alternatives en chimie ont été mises en lumière par différents groupes de chercheurs internationaux, sans toutefois qu’une telle opération n’ait jamais été réalisée avec des étudiants collégiaux québécois. Le système d’éducation postsecondaire québécois représentant un contexte unique, une étude des difficultés particulières de ces étudiants était nécessaire pour tracer un portrait juste de la situation. De plus, des chercheurs proposent aujourd’hui de ne pas faire uniquement l’inventaire des conceptions, mais de s’attarder aussi à étudier comment, par quel processus, elles mènent à de mauvaises prédictions ou explications. En effet, ils soutiennent que les catalogues de conceptions ne peuvent pas être facilement utilisés par les enseignants, ce qui devrait pourtant être la raison pour les mettre en lumière : qu’elles soient prises en compte dans l’enseignement. Toutefois, aucune typologie satisfaisante des raisonnements et des conceptions alternatives en chimie, qui serait appuyée sur des résultats expérimentaux, n’existe actuellement dans les écrits de recherche. Plusieurs chercheurs en didactique de la chimie suggèrent qu’une telle typologie est nécessaire et devrait rendre explicites les modes de raisonnement qui mettent en jeu ces conceptions alternatives. L’explicitation du raisonnement employé par les étudiants serait ainsi la voie permettant de repérer la conception alternative sur laquelle ce raisonnement s’appuie. Le raisonnement est le passage des idées tacites aux réponses manifestes. Ce ne sont pas toutes les mauvaises réponses en chimie qui proviennent de conceptions alternatives : certaines proviennent d’un manque de connaissances, d’autres d’un agencement incorrect de concepts pourtant corrects. Comme toutes les sortes de mauvaises réponses d’étudiants sont problématiques lors de l’enseignement, il est pertinent de toutes les considérer. Ainsi, ces préoccupations ont inspiré la question de recherche suivante : Quelles conceptions alternatives et quels processus de raisonnement mènent les étudiants à faire de mauvaises prédictions en chimie ou à donner de mauvaises explications du comportement de la matière? C’est pour fournir une réponse à cette question que cette recherche doctorale a été menée. Au total, 2413 étudiants ont participé à la recherche, qui était divisée en trois phases : la phase préliminaire, la phase pilote et la phase principale. Des entrevues cliniques ont été menées à la phase préliminaire, pour explorer les conceptions alternatives des étudiants en chimie. Lors de la phase pilote, des questionnaires à choix multiples avec justification ouverte des réponses ont été utilisés pour délimiter le sujet, notamment à propos des notions de chimie les plus pertinentes sur lesquelles concentrer la recherche et pour mettre en lumière les façons de raisonner des étudiants à propos de ces notions. La phase principale, quant à elle, a utilisé le questionnaire à deux paliers à choix multiples « Molécules, polarité et phénomènes » (MPP) développé spécifiquement pour cette recherche. Ce questionnaire a été distribué aux étudiants via une adaptation de la plateforme Web ConSOL, développée durant la recherche par le groupe de recherche dont fait partie la chercheuse principale. Les résultats montrent que les étudiants de sciences de la nature ont de nombreuses conceptions alternatives et autres difficultés conceptuelles, certaines étant très répandues parmi leur population. En particulier, une forte proportion d’étudiants croient que l’évaporation d’un composé entraîne le bris des liaisons covalentes de ses molécules (61,1 %), que tout regroupement d’atomes est une molécule (78,9 %) et que les atomes ont des propriétés macroscopiques pareilles à celles de l’élément qu’ils constituent (66,0 %). D’un autre côté, ce ne sont pas toutes les mauvaises réponses au MPP qui montrent des conceptions alternatives. Certaines d’entre elles s’expliquent plutôt par une carence dans les connaissances antérieures (par exemple, lorsque les étudiants montrent une méconnaissance d’éléments chimiques communs, à 21,8 %) ou par un raisonnement logique incomplet (lorsqu’ils croient que le seul fait de posséder des liaisons polaires rend nécessairement une molécule polaire, ce qu’on observe chez 24,1 % d’entre eux). Les conceptions alternatives et les raisonnements qui mènent à des réponses incorrectes s’observent chez les étudiants de première année et chez ceux de deuxième année du programme de sciences, dans certains cas avec une fréquence diminuant entre les deux années, et dans d’autres, à la même fréquence chez les deux sous-populations. Ces résultats permettent de mitiger l’affirmation, généralement reconnue dans les écrits de recherche, selon laquelle les conceptions alternatives sont résistantes à l’enseignement traditionnel : selon les résultats de la présente recherche, certaines d’entre elles semblent en effet se résoudre à travers un tel contexte d’enseignement. Il demeure que plusieurs conceptions alternatives, carences dans les connaissances antérieures de base et erreurs de raisonnement ont été mises en lumière par cette recherche. Ces problèmes dans l’apprentissage mènent les étudiants collégiaux à faire des prédictions incorrectes du comportement de la matière, ou à expliquer ce comportement de façon incorrecte. Au regard de ces résultats, une réflexion sur l’enseignement de la chimie au niveau collégial, qui pourrait faire une plus grande place à la réflexion conceptuelle et à l’utilisation du raisonnement pour la prédiction et l’explication des phénomènes étudiés, serait pertinente à tenir.
Resumo:
Dans l’ère post-industrielle, où la densification apparaît comme une solution afin de freiner l’étalement urbain, la question de l’avenir des terrains en friche devient incontournable. En effet, ceux-ci deviennent hautement convoités par les acteurs du redéveloppement urbain puisqu’ils détiennent un potentiel foncier important. Face à ces pressions, cette recherche s’intéresse à la complexité des terrains en friche, puisqu’il existe une diversité de potentiels, outre le foncier. Parmi ces potentiels, les friches peuvent être utilisées comme des espaces verts urbains. Effectivement, il arrive qu’on retrouve sur ces sites des usagers qui les fréquentent, à différents desseins. L’étude tente ainsi de répertorier et de comprendre les pratiques faites par les usagers, pour deux cas étudiés à Montréal : le Boisé Jean-Milot et le Champ des possibles. L’objectif est non seulement de qualifier ces pratiques, mais également de mettre en évidence les facteurs d’influence qui les sous-tendent. La recherche s’inscrit dans les approches personnes-environnement. D’un point de vue méthodologique, des entretiens in situ ont été menés avec les usagers afin qu’ils puissent expliquer leur expérience vécue de la friche. Les facteurs d’influence ont émergé des discours tenus en entrevue. Les cas étudiés montrent que la friche est un espace d’exception en ville : les friches urbaines végétalisées sont le cadre de pratiques exclusives, en plus de faire vivre une variété d’ambiances à l’usager. Les résultats permettent ainsi de placer la friche comme un espace vert complémentaire au parc urbain. La friche fait partie d’un portfolio d’espaces disponibles, utilisés au moment présent. En relevant les facteurs qui influencent les usagers à fréquenter les friches, on met en lumière des qualités qui pourraient être utiles dans la planification des espaces verts urbains et dans le développement d’une vision innovante pour l’avenir des friches.
Resumo:
L’importance que revêt la localisation des entreprises dans le fonctionnement et la compétitivité de celles-ci amène à porter l’attention sur la problématique des clusters et l’influence qu’ils peuvent avoir sur la production de connaissances. À travers une perspective théorique qui repose sur la prise en compte des travaux portant sur les districts industriels et ceux plus récents, sur les clusters, nous mettons en évidence une évolution conceptuelle du phénomène de la localisation des entreprises. La place qu’occupe la production de connaissances constitue désormais un élément central des travaux récents qui portent sur les districts et les clusters industriels. Notre examen des dynamiques de fonctionnement de ces systèmes permet d’affirmer que la production de connaissances est une caractéristique centrale des clusters ainsi que leur principal avantage compétitif. Étroitement liée aux réseaux inter-organisationnels, la production de connaissances n’est pas un phénomène naturel, elle découle des mécanismes intrinsèques aux clusters, qu’on cherche à mettre en évidence. Pour ce faire, notre méthodologie qui emprunte les principaux repères de l’analyse stratégique des organisations conduit à l’étude du fonctionnement concret d’un réseau local d’innovation, constitué d’entreprises et d’institutions locales présentes dans le cluster montréalais de l’aérospatiale. Un réseau constitué par l’intermédiaire du Consortium de Recherche et d’Innovation en Aérospatiale du Québec, une institution centrale dans le fonctionnement de ce cluster.
Resumo:
L'écotourisme est souvent perçu comme une panacée capable de concilier le développement économique, la protection de l'environnement et le bien-être des communautés autour des aires protégées des pays en développement. La réalité sur le terrain est cependant tout autre, car son caractère complexe, politique et transcalaire est trop souvent négligé lors de la mise en œuvre des interventions. Le but de ce projet de recherche est de jeter un nouvel éclairage sur le développement de l'écotourisme dans les aires protégées des pays du Sud à travers une analyse critique des pratiques et des discours qui lui sont associés. Adoptant un cadre conceptuel dérivé de l'écologie politique, nous avons cherché à comprendre comment l'écotourisme affecte l'accès aux ressources naturelles pour différents acteurs sociaux. L'approche méthodologique s'appuie sur une étude de cas essentiellement qualitative qui s'attarde à un projet spécifique amorcé à Chi Phat, dans une forêt protégée des Cardamomes, au sud-ouest du Cambodge. Elle fait appel à l'analyse documentaire et discursive, à l'observation participante ainsi qu'à plus de 80 entretiens semi-directifs auprès d'acteurs clés. Nos résultats montrent d'abord qu'en matière d'écotourisme au Cambodge, il y a absence de lignes directrices claires et on observe très peu de collaboration, et ce, à tous les niveaux. Cela n'est pas étranger au fait que le gouvernement actuel accorde en général la priorité au développement devant la conservation. Ensuite, le projet d'écotourisme permet à Wildlife Alliance de justifier le maintien de la forêt protégée. Cette ONG se démarque par ailleurs des autres organisations au pays par son approche plus musclée. Le pouvoir dont elle jouit et les résultats qu'elle obtient sur le terrain tiennent en sa capacité à mobiliser, en temps opportun, l'ensemble des moyens disponibles pour contrôler l'accès. Globalement, nous pouvons affirmer que les principaux acteurs qui voient leur accès aux ressources naturelles touché négativement sont les paysans. Finalement, nous proposons deux ajouts au cadre conceptuel, soit la considération de l'aspect géographique de l'exclusion et l'introduction de modalités d'exclusion, qui permettent à notre avis une analyse plus juste de la situation.
Resumo:
Le monde du travail connaît actuellement de grandes transformations. Le modèle nord-américain d’organisation syndicale ne semble plus permettre au mouvement syndical de répondre efficacement à ces transformations, favorisant le développement de plusieurs initiatives de renouveau syndical. Pour évaluer les impacts d’initiatives de renouveau syndical, nous avons développé un modèle basé sur le concept de zone syndicale (Haiven, 2003, 2006). Nous avons dû déterminer les facteurs définissant la zone syndicale, comme la littérature était muette à ce sujet. En utilisant d’abord la théorie des déterminants de la densité syndicale (Schnabel, 2003), nous avons intégré au modèle les éléments de la théorie des ressources du pouvoir syndical (Lévesque et Murray, 2010) pour considérer les facteurs internes aux syndicats qui influencent la zone syndicale. L’intégration de ces trois théories dans un modèle unifié constitue une innovation théorique significative. Le modèle a été appliqué à deux centres de travailleurs : le Vermont Workers Center et le Centre des Travailleurs de St-Rémi. Dans les deux cas, ces initiatives ont permis d’élargir la zone syndicale. Par contre, le Centre du Vermont applique les principes du syndicalisme communautaire, en cherchant à développer du leaderhsip chez ses membres (Cranford et Ladd, 2013), alors que celui de St-Rémi applique un syndicalisme de mobilisation, où le leadership s’exerce par les organisateurs syndicaux (Camfield, 2007). Cette différence et leurs différents mandats font que les impacts des deux cas étudiés diffèrent. D’autres études sont nécessaires pour améliorer le modèle proposé. Ce dernier demeure malgré tout un outil pour les chercheurs ou les syndicats qui veulent évaluer des initiatives ou des pratiques syndicales et permettre, à terme, d’augmenter l’influence du mouvement syndical sur le marché du travail et la société.
Resumo:
La littérature abordant les enjeux socio-éthiques et réglementaires associés aux médicaments est relativement abondante, ce qui n’est pas le cas des dispositifs médicaux (DM). Ce dernier secteur couvre une très large diversité de produits qui servent à de multiples applications: diagnostic, traitement, gestion des symptômes de certaines conditions physiques ou psychiatriques, restauration d’une fonction débilitante, chirurgie, etc. À tort, on a tendance à croire que les DM sont réglementés de la même manière que les médicaments, que ce soit pour les exigences concernant leur mise en marché ou des pratiques de surveillance après mise en marché. Or, au cours des dernières années, leur usage élargi, leur impact sur les coûts des soins de santé, et les rappels majeurs dont certains ont fait l’objet ont commencé à inquiéter la communauté médicale et de nombreux chercheurs. Ils interpellent les autorités réglementaires à exercer une plus grande vigilance tant au niveau de l’évaluation des nouveaux DM à risque élevé avant leur mise en marché, que dans les pratiques de surveillance après mise en marché. Une stratégie plus rigoureuse d’évaluation des nouveaux DM permettrait d’assurer un meilleur suivi des risques associés à leur utilisation, de saisir la portée des divers enjeux socio-éthiques découlant de l’utilisation de certains DM, et de préserver la confiance du public. D’emblée, il faut savoir que les autorités nationales n’ont pas pour mandat d’évaluer la portée des enjeux socio-éthiques, ou encore les coûts des DM qui font l’objet d’une demande de mise en marché. Cette évaluation est essentiellement basée sur une analyse des rapports risques-bénéfices générés par l’usage du DM pour une indication donnée. L’évaluation des impacts socio-éthiques et l’analyse coûts-bénéfices relèvent des agences d’Évaluation des technologies de santé (ÉTS). Notre recherche montre que les DM sont non seulement peu fréquemment évalués par les agences d’ÉTS, mais l’examen des enjeux socio-éthiques est trop souvent encore incomplet. En fait, les recommandations des rapports d’ÉTS sont surtout fondées sur une analyse coûts-bénéfices. Or, le secteur des DM à risque élevé est particulièrement problématique. Plusieurs sont non seulement porteurs de risques pour les patients, mais leur utilisation élargie comporte des impacts importants pour les systèmes de santé. Nous croyons que le Principisme, au cœur de l’éthique biomédicale, que ce soit au plan de l’éthique de la recherche que de l’éthique clinique, constitue un outil pour faciliter la reconnaissance et l’examen, particulièrement par les agences d’ÉTS, des enjeux socio-éthiques en jeu au niveau des DM à risque élevé. Également, le Principe de Précaution pourrait aussi servir d’outil, particulièrement au sein des agences nationales de réglementation, pour mieux cerner, reconnaître, analyser et gérer les risques associés à l’évaluation et l’utilisation de ce type de DM. Le Principisme et le Principe de Précaution pourraient servir de repères 1) pour définir les mesures nécessaires pour éliminer les lacunes observées dans pratiques associées aux processus de réglementation, et 2) pour mieux cerner et documenter les enjeux socio-éthiques spécifiques aux DM à risque élevé.
Resumo:
Introduction. Les programmes de vélos en libre-service (PVLS) représentent une innovation en transport actif. À ce jour, la sensibilisation à cette innovation en tant que prérequis à l’accessibilité n’a jamais été étudiée. Objectif. Identifier les facteurs liés à l’absence de sensibilisation à l’existence du PVLS à Montréal. Méthode. 7011 Montréalais âgés de 18 ans et plus ont été interrogés au cours de 3 sondages téléphoniques sur une période couvrant deux saisons : avant la première saison (n=2000), après la première saison (n=2502) et après la deuxième saison (n=2509). Des analyses de régression logistique ont été réalisées sur 93,6 % (n=6562) de l’échantillon pour examiner l’effet du temps, de la proximité des stations de vélos et du niveau d’éducation sur l’absence de sensibilisation à l’existence du PVLS. Résultats. Nous constatons que, après la première saison d’implantation du PVLS, la probabilité d’absence de sensibilisation au PVLS est plus élevée chez les individus dont le niveau d’éducation est faible que chez ceux dont le niveau d’éducation est élevé (RC = 1,60; 95 % IC : 1,18; 2,19). Aussi, nous observons que, après la deuxième saison d’implantation, la probabilité d’absence de sensibilisation au PVLS est plus élevée chez les individus dont le niveau d’éducation est faible et qui vivent dans un voisinage pourvu d’un PVLS, que chez ceux dont le niveau d’éducation est élevé et qui vivent dans un voisinage dépourvu d’un PVLS (RC = 1,63, 95 % IC : 1,01; 2,64). Conclusion. Malgré l’accessibilité au PVLS dans un voisinage, des inégalités sociales persistent.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
L’utilisation accrue des nanomatériaux manufacturés (NM) fait en sorte que les différents acteurs de réglementation se questionnent de plus en plus par rapport à leur destin et leurs impacts sur les écosystèmes et la santé humaine suite à leur rejet dans l’environnement. Le développement de techniques analytiques permettant de détecter et de caractériser les NM en matrice environnementale est impératif étant donné la nécessité d’évaluer le risque relié à ces polluants émergents. Une des approches de plus en plus favorisée est d’utiliser une technique chromatographique et un ou plusieurs détecteurs sensibles dans les buts de réduire les effets de matrice, d’identifier des nanoparticules (NP) selon leurs temps de rétention et de les quantifier à des concentrations représentatives de la réalité environnementale. Une technique analytique utilisant la chromatographie hydrodynamique (HDC) et des détecteurs en ligne ou hors ligne (détecteurs de diffusion statique ou dynamique de la lumière, spectromètre de masse par torche à plasma en mode particule unique (SP-ICPMS), l’ultracentrifugation analytique) a donc été développée. Le couplage de la colonne HDC avec ces détecteurs a permis de caractériser des NP standards et l’optimisation des conditions de séparation de ces nanoparticules de polystyrène, d’or et d’argent a permis de confirmer que les NP y sont bel et bien séparées seulement selon leur taille, tel que la théorie le prédit. De plus, l’utilisation de la colonne HDC couplée au SP-ICPMS a permis de séparer un mélange de nanoparticules d’argent (nAg) et de les détecter à des concentrations représentatives de celles rencontrées dans l’environnement, soit de l’ordre du μg L-1 au ng L-1. Par exemple, dans un échantillon d’eau usée (effluent), un mélange de nAg de 80 et de 40 nm a été séparé et les nAg ont été détectées à l’aide du SP-ICPMS connecté à la colonne HDC (temps de rétention de 25.2 et 25.6 minutes et diamètres déterminés de 71.4 nm et 52.0 nm). Finalement, pour plusieurs échantillons environnementaux auxquels aucun ajout de nanoparticules n’a été fait, les analyses HDC-SP-ICPMS effectuées ont permis de déterminer qu’ils ne contenaient initialement pas de nAg.
Resumo:
La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.