31 resultados para Appareils ménagers
Resumo:
Il est connu que le vieillissement de la population canadienne va augmenter la demande d’aide à domicile et qu’un soutien insuffisant du secteur public accroît l’implication des réseaux informels et privés. En s’appuyant sur les données de l’Enquête nationale sur la santé de la population (ENSP) et de l’Enquête sur la santé dans les collectivités canadiennes (ESCC), cette recherche analyse les tendances et déterminants de l’utilisation de l’aide à domicile subventionnée par le gouvernement au Canada et en Ontario entre 1996-1997 et 2009-2010. Il en ressort que la proportion de bénéficiaires âgés de 65 ans et plus est en diminution, passant de 9,9% à 9,2% au Canada (1996-1997 à 2005) et de 10,2% à 8,8% puis 9,6% en Ontario (1996-1997, 2005, 2009-2010). Les compressions sont particulièrement ressenties dans les services de maintien à domicile, dont l’aide pour les travaux ménagers (de 51% à 34% en Ontario). Les personnes âgées, les femmes, les gens vivant seuls ou qui ont besoin d’assistance pour accomplir certaines activités de la vie quotidienne (AVQ) ou activités instrumentales de la vie quotidienne (AIVQ) reçoivent de moins en moins d’aide publique à domicile. En conclusion, le présent système de santé, qui semble se concentrer sur les soins de santé plutôt que sur les services de maintien, ne répond pas aux besoins des personnes âgées. Par ailleurs, le cas ontarien évoque l’impact que peuvent avoir les décisions politiques sur l’utilisation de l’aide à domicile. Les résultats suggèrent qu’entre 1996-1997 et 2005, ce sont surtout les personnes âgées de 18 à 64 ans et ceux nécessitant des soins qui bénéficièrent des programmes publics. Durant la période suivante (2005 à 2009-2010), il semble y avoir un intérêt plus marqué pour les 65 ans et plus dont la proportion d’utilisateurs s’accroît plus rapidement.
Resumo:
«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).
Resumo:
L’étude que nous avons entreprise dans le cadre de notre mémoire porte sur la domesticité juvénile en Haïti. S’agissant d’une pratique où l’enfant placé en domesticité, en plus d’accomplir des travaux ménagers qui nuisent à son éducation, est généralement victime de mauvais traitements, l’objectif principal de notre recherche était de mettre en lumière les normes existant en matière d’éducation et de traitement physique des jeunes travailleurs domestiques. Inspirée du pluralisme juridique, qui s’intéresse aux divers niveaux de normes existant au sein d’une société, la démarche entreprise pour y parvenir allie recherche théorique et recherche sur le terrain. Dans un premier temps, nous présenterons les informations que notre recherche théorique nous a révélées. Après avoir précisé la notion d’« enfant domestique haïtien », dressé le profil social des acteurs impliqués dans la pratique de la domesticité et identifié les facteurs contingents les plus déterminants, nous dresserons un tableau des principales normes nationales et internationales garantissant aux enfants le droit à l’instruction scolaire et le respect de leur intégrité physique. Dans un second temps, nous exposerons les normes de conduite locales relatives à l’éducation et au traitement physique des jeunes travailleurs domestiques que notre recherche empirique en Haïti nous a permis de découvrir. Sur la base des normes applicables déterminées, nous serons mieux à même de mesurer l’importance de chacune dans la conduite des familles qui reçoivent des enfants domestiques sous leur toit et d’identifier les actions les plus susceptibles d’améliorer la qualité de vie de ceux-ci.
Resumo:
De plus en plus de recherches sur les Interactions Humain-Machine (IHM) tentent d’effectuer des analyses fines de l’interaction afin de faire ressortir ce qui influence les comportements des utilisateurs. Tant au niveau de l’évaluation de la performance que de l’expérience des utilisateurs, on note qu’une attention particulière est maintenant portée aux réactions émotionnelles et cognitives lors de l’interaction. Les approches qualitatives standards sont limitées, car elles se fondent sur l’observation et des entrevues après l’interaction, limitant ainsi la précision du diagnostic. L’expérience utilisateur et les réactions émotionnelles étant de nature hautement dynamique et contextualisée, les approches d’évaluation doivent l’être de même afin de permettre un diagnostic précis de l’interaction. Cette thèse présente une approche d’évaluation quantitative et dynamique qui permet de contextualiser les réactions des utilisateurs afin d’en identifier les antécédents dans l’interaction avec un système. Pour ce faire, ce travail s’articule autour de trois axes. 1) La reconnaissance automatique des buts et de la structure de tâches de l’utilisateur, à l’aide de mesures oculométriques et d’activité dans l’environnement par apprentissage machine. 2) L’inférence de construits psychologiques (activation, valence émotionnelle et charge cognitive) via l’analyse des signaux physiologiques. 3) Le diagnostic de l‘interaction reposant sur le couplage dynamique des deux précédentes opérations. Les idées et le développement de notre approche sont illustrés par leur application dans deux contextes expérimentaux : le commerce électronique et l’apprentissage par simulation. Nous présentons aussi l’outil informatique complet qui a été implémenté afin de permettre à des professionnels en évaluation (ex. : ergonomes, concepteurs de jeux, formateurs) d’utiliser l’approche proposée pour l’évaluation d’IHM. Celui-ci est conçu de manière à faciliter la triangulation des appareils de mesure impliqués dans ce travail et à s’intégrer aux méthodes classiques d’évaluation de l’interaction (ex. : questionnaires et codage des observations).
Resumo:
Introduction : Les accéléromètres sont actuellement les appareils les plus utilisés pour mesurer le niveau d’activité physique, et ce, parce qu'ils évaluent les niveaux d'activité physique de façon objective. Toutefois, les mouvements humains sont difficiles à mesurer, et de nombreuses limitations doivent être prises en considération pour la bonne utilisation des accéléromètres. Les études présentées s’intéressent donc à la validité de la fonction podomètre des accéléromètres ainsi qu’à la validation de la composante accéléromètre d’un nouvel appareil multicapteur (SenseDoc). Méthode : Les sujets ayant participé à la première étude, qui consistait en la validation de la fonction podomètre des accéléromètres, ont marché sur un tapis roulant à trois vitesses différentes (2,5 km/h, 3,5 km/h et 4,8 km/h) pendant 5 minutes par palier. Un accéléromètre (ActiGraph GT3X) porté à la ceinture a enregistré le nombre de pas tandis qu'une caméra a enregistré la marche des participants. Pour la seconde étude, les participants portaient un accéléromètre Actigraph et un SenseDoc à la hanche. Les données brutes des accéléromètres et la mesure de la consommation d’oxygène par calorimétrie indirecte ont été mesurées lors de 14 activités réalisées en laboratoire allant de sédentaires à vigoureuses. Résultats : La première étude indique que les accéléromètres ont détecté seulement 53 % des pas à 2,5 km/h, 82 % à 3,5 km/h et 91 % à 4,8 km/h pour les personnes non obèses. Pour les personnes obèses, l'accéléromètre a détecté 47 % des pas à 2.5 km/h, 67 % à 3.5 km/h et 100 % à 4.8 km/h, des résultats significativement différents des personnes non obèses. La seconde étude confirme pour sa part que le SenseDoc est un outil valide de mesure du niveau d’activité physique. Les accéléromètres possèdent une bonne capacité prédictive de la dépense énergétique avec des valeurs de R carré de 0,84 et 0,80 respectivement pour l'Actigraph et le SenseDoc. Conclusion : À vitesse de marche lente, les accéléromètres sous-estiment le nombre de pas, et ce, dans une plus large mesure chez les personnes obèses que chez les personnes non obèses. Également, une méthode valide et transparente de transformation de données brutes d’accélérométrie a été divulguée dans l’étude avec le SenseDoc. Les travaux présentés dans ce mémoire visent à améliorer l’utilisation en milieu clinique et en recherche des accéléromètres et ouvrent la voie à une plus grande uniformité entre les études utilisant différents types d’accéléromètres.
Resumo:
Le contexte actuel de la distribution des soins de santé se caractérise par la présence d’inégalités frappantes en termes d’accès aux médicaments ou autres technologies thérapeutiques (appareils ou tests de diagnostic) à l’échelle mondiale. Cette distribution dépend de plusieurs facteurs politiques, sociaux, économiques, scientifiques et éthiques. Parmi les facteurs importants, l’innovation dans les milieux biomédical et pharmaceutique participe activement à l’établissement et à l’exacerbation des inégalités en santé mondiale. Dans cette thèse, nous présentons une étude basée sur le cas des technologies issues de la pharmacogénomique. Il est proposé que ces technologies soient susceptibles d’avoir un impact positif sur la santé publique à l’échelle mondiale en révolutionnant le modèle de développement et de distribution du médicament. Nous avons réalisé une évaluation du potentiel qu’offre l’application de ces technologies dans les domaines de la recherche biomédicale et pharmaceutique pour les populations des pays à faible et à moyen revenu. Nous démontrons que les efforts en recherche dans le domaine de la pharmacogénomique sont essentiellement dirigés vers les maladies affectant les populations des pays à revenu élevé. Par cela, le développement de la recherche dans ce domaine réplique le modèle du ratio 90/10 des inégalités en santé mondiale, où 90 % des médicaments produits accommode seulement 10 % de la population mondiale – soit celle des pays à revenu élevé. Il appert que le potentiel d’utilisation des technologies issues de la pharmacogénomique pour les populations des pays à faible et à moyen revenu nécessite alors une redéfinition des rôles et des responsabilités des acteurs en santé mondiale (les gouvernements, les organisations gouvernementales et non gouvernementales internationales et les compagnies pharmaceutiques). Nous proposons que cette redéfinition des rôles et des responsabilités des différents acteurs passe par l’adoption d’un cadre réflexif basé sur les principes éthiques de la justice, de l’équité et de la solidarité dans le développement de la recherche et l’implantation des nouvelles technologies -omiques.
Resumo:
L’alchimie, science de la manipulation des influences spirituelles par une métallurgie sacrée, et la pataphysique, esthétique pseudo-scientifique associant l'ésotérisme à l'humour, sont les deux principaux fondements idéologiques qui unissent Marcel Duchamp et Roberto Matta. Tandis que Duchamp s'intéresse déjà à l'ésotérisme dès 1910, soit près d'une vingtaine d'années avant sa rencontre avec Matta. Ce dernier aborde, dans sa production, des thèmes propres à la littérature alchimique, soit les opérations occultes, les états merveilleux de la matière et les appareils de laboratoire. De plus, les écrivains symbolistes et pseudo-scientifiques, lus par Duchamp, puis par Matta, influencent l'humour pataphysique, teinté d'ésotérisme, qui s'exprime dans la production de ces deux artistes. Ainsi, Les Célibataires, vingt ans plus tard, est une huile sur toile, réalisée en 1943, par Roberto Matta, qui représente un paysage cosmique, composé d'astres et de trous noirs, de trois alambics et d'une grande machine noire. Dans cette œuvre, Matta réinterprète très librement certains éléments du Grand verre, une peinture sur verre de Marcel Duchamp, laissée inachevée en 1923. Le présent mémoire de maîtrise étudie l'influence de l'alchimie et de l'iconographie duchampienne sur Les Célibataires, vingt ans plus tard. Dans un premier temps, cette étude vise à mettre en exergue et à examiner les influences alchimiques et pataphysiques dans l'œuvre de Matta. Dans un deuxième temps, notre mémoire vise à démontrer comment l'œuvre de Matta s'intègre dans le projet surréaliste de création d'un mythe nouveau, dans la continuité du projet duchampien.
Resumo:
Introduction. Ce projet de recherche consiste en une étude cohorte prospective randomisée visant à évaluer les douleurs ressenties au niveau de l’articulation temporo-mandibulaire (ATM) lors d’une thérapie d’avancement mandibulaire grâce à un appareil fixe, le correcteur de classe II (CC) et d’un appareil amovible, le Twin-Block (TB). Matériels et méthodes. Cette étude comptait 26 patients (11 hommes et 15 femmes), âge moyen de 12ans 10mois (10ans 4mois à 15ans 10mois). Les sujets devaient avoir une malocclusion de classe II et être en croissance, CVM 2 ou 3 (Cervical Vertebral Maturation). Les patients étaient divisés en deux groupes : TB et CC. La douleur était évaluée selon l’axe I de l’examen du RDC/TMD (Research Diagnostic Criteria for Temporomandibular Disorders) à 7 reprises (T0 à T6). De plus, le patient devait remplir un questionnaire, à la maison, sur la douleur ressentie et la médication prise lors des 30 premiers jours. La douleur était évaluée avant l’insertion des appareils (T0), à 1 semaine (T1) post-insertion, 4 semaines plus tard (T2), 8 semaines (T3) où une expansion de 20 tours (environs 5 mm) était débutée, ensuite (T4) (T5) et (T6) chacun à 8 semaines d’intervalles. Les tests statistiques utilisés dans cette étude : le test «Wilcoxon à un échantillon» ainsi que le test «Mann-Whitney à échantillons indépendants ». Résultats et Discussion. La douleur à l’examen clinique est variable mais tend à diminuer avec le temps. Aucune différence, statistiquement significative, ne fut observée entre les 2 groupes en ce qui à trait aux diverses palpations effectuées. Parmi les patients ayant rapporté de la douleur, 40% l’ont ressentie surtout le matin et 63,3% ont dit qu’elle durait de moins d’une heure jusqu’à quelques heures. Conclusion. D’après nos résultats, lors d’une thérapie myofonctionnnelle, il n’y a pas de différence statistiquement significative entre la douleur occasionnée par un Twin-Block et celle produite par un correcteur de classe II fixe au niveau de l’ATM et des muscles du complexe facial.
Resumo:
À cause de leur impact environnemental élevé, les déchets d’équipements électriques et électroniques (DEEE) sont un problème majeur pour les pays développés. La consommation importante de produits électroniques, dont la durée d’utilisation est de plus en plus courte, a entrainé une production croissante de DEEE. C’est dans ce contexte que l’Union européenne a instauré en 2003 la responsabilité élargie des producteurs (REP). Cet outil de politique environnementale a rendu légalement responsables les fabricants de la mise en oeuvre et du financement d’un programme d’intendance des DEEE. Alors que la REP vise principalement le traitement écologique des DEEE, cet instrument ne permet pas de réduire les quantités considérables qui sont produites par les consommateurs. Cette situation est d’autant plus inquiétante que les gains environnementaux obtenus, grâce à l’implantation de la REP, ont été annulés au regard de l’augmentation continue de la consommation de biens électroniques à l’échelle mondiale. En réponse à cette problématique, la présente thèse porte sur les pratiques de l’usager au cours de la phase de consommation des appareils électroniques (aussi appelée phase d’usage). Cette étape du cycle de vie regroupe l’achat, l’utilisation, la réparation et la mise au rebut des biens. Une approche qualitative de type exploratoire faisant appel à l’étude de cas a été utilisée. Le téléviseur, retenu comme cas d’étude, illustre des enjeux partagés par plusieurs équipements électroniques, tels que : la fréquente mise sur le marché de nouveaux modèles, le bas prix d’acquisition comparé au coût de la réparation et l’influence de la mode sur les choix effectués par le consommateur. Ces facteurs facilitent le remplacement des biens et, par conséquent, pourraient entrainer leur fin de vie prématurée qui se matérialise à travers différentes formes d’obsolescence. Dans le cadre de cette étude de cas, une trentaine d’entrevues semi-dirigées a été réalisée avec des usagers et réparateurs de produits électroniques en vue de documenter les différentes sous-étapes de la phase d’usage d’un téléviseur. Sur la base des informations recueillies, l’objectif de cette thèse est de formuler des recommandations, à destination des autorités politiques, qui pourront permettre une minimisation des impacts environnementaux liés à la phase d’usage des appareils électroniques. Les résultats ont permis de mettre en évidence, via le rôle et le statut singulier occupé par le téléviseur dans les foyers, les comportements de l’usager contribuant à augmenter l’empreinte écologique associée à la phase d’usage. L’acquisition de nombreux biens électroniques et non électroniques suite à l’achat du téléviseur, ses multiples fonctionnalités le rapprochant de celles de l’ordinateur et des tablettes, ainsi que la fin de vie prématurée de produits fonctionnels, mais obsolètes d’un point de vue technologique, font partie des résultats de cette recherche. En lien avec ces constats, cette étude propose des instruments de politique environnementale, dont l’affichage de la durée de vie des équipements électroniques, destinés à aider le consommateur à réaliser des choix plus éclairés au moment de l’achat. D’autres orientations, telles que la possibilité d’évoluer vers une réglementation horizontale, c’est-à-dire un cadre législatif qui ne se basera plus sur le produit individuel, mais sur l’ensemble des appareils ayant des fonctionnalités similaires, sont exposées. Par ailleurs, cette recherche explore certains leviers pouvant minimiser le phénomène de fin de vie prématurée des appareils électroniques, tels que l’envoi de biens obsolètes et fonctionnels des pays développés vers ceux en développement pour permettre leur réutilisation et la tendance du Do-It- Yourself dans la réparation des produits électroniques.
Resumo:
La popularité des technologies de l’information et des communications entraîne l’augmentation de la preuve retrouvée sous forme numérique lors d’enquêtes policières. Les organisations policières doivent innover afin d’analyser, gérer et tirer profit de cette preuve numérique. En réponse, elles ont constitué des unités spécialisées en criminalité technologique et en analyse judiciaire informatique. La présente étude utilise les théories de l’innovation afin de déterminer comment l’évolution des technologies et des tendances en matière de criminalité technologique influencent les enquêtes et les organisations policières. Cette recherche vise à augmenter les connaissances sur ces unités spécialisées en quantifiant et en qualifiant leur travail quotidien. Avec la collaboration d’une unité policière canadienne spécialisée en analyse judiciaire informatique, une analyse détaillée des demandes d’expertise adressées à leur service a été effectuée. Les résultats indiquent une augmentation de la preuve numérique avec la prévalence de certaines formes de criminalité et de certains appareils électroniques. Les facteurs influençant le délai de traitement sont soulignés ainsi que les stratégies mises de l’avant afin de gérer efficacement l’accroissement des demandes de service. Finalement, des entrevues ont été menées avec certains membres de l’équipe afin de mettre en lumière les défis et les enjeux relatifs à l’implantation et au fonctionnement d’une telle unité. Les principaux enjeux soulevés concernent les environnements technologiques et juridiques, la formation du personnel, la gestion des ressources et les priorités organisationnelles.
Resumo:
Introduction : L’inconfort causé par les appareils orthodontiques peut significativement affecter la coopération des patients dans leur traitement. La douleur, ainsi que la détérioration de la fonction (mastication, élocution) sont reconnus comme les déterminants majeurs de la coopération des patients traités par appareils amovibles. Invisalign® se positionne comme une alternative esthétique aux multiples inconforts observés lors des traitements fixes avec boîtiers. À ce jour, peu d’études ont cherché à comparer la douleur (quantitativement et qualitativement) perçue entre cette technique et celle avec boîtiers fixes sur une longue période. Objectif : L’objectif de la présente étude est d’évaluer la douleur ressentie par les patients qui suivent un traitement orthodontique avec coquilles correctrices Invisalign® et de la comparer avec celle des patients qui suivent un traitement orthodontique conventionnel avec des boîtiers fixes. Matériels et Méthodes: L’étude compte 70 patients (29 garçons, 41 filles), moyenne d’âge de 16 ans [11 à 30]. Les trois sous-groupes sont Invisalign® (n=31), boîtiers Damon (n=19) et boîtiers Speed (n=20). Les groupes avec boîtiers (Damon et Speed) sont les 2 groupes de l’étude menée au sein de la clinique d’Orthodontie de l’Université de Montréal en 2011 qui comparait la perception de la douleur durant le traitement orthodontique entre boîtiers auto-ligaturants passifs et actifs. L’étude a été organisée en 4 phases correspondant à l’insertion des 4 premiers fils pour les groupes avec boîtiers (Phase 1: 0,016" Supercable, Phase 2: 0,016" CuNiTi, Phase 3: 0,016"x0,022" CuNiTi, Phase 4: 0,019"x0,025" CuNiTi) et à l’insertion des coquilles 1, 4, 7 et 10 pour le groupe Invisalign®. À l’aide d’un questionnaire, l’étude évalue pour chaque phase l’ampleur (grâce à une échelle visuelle analogue EVA), la durée et la localisation de la douleur à 6 différents points (T1: immédiatement après l’insertion, T2: 5h après, T3: 24h après, T4: 3 jours après, T5: une semaine après, T6: 2 semaines après). Résultats: À T1Ph3 le pourcentage de patients rapportant de la douleur était plus élevé avec Damon qu’avec Invisalign® (p=0,032) (Damon=55,6% ; Invisalign®=23,3%) mais il n’y avait pas de différence avec le groupe Speed (p=0,114). Les patients avec Invisalign® rapportaient significativement moins d’irritation des tissus mous (muqueuses, gencives) que les patients avec des boîtiers. Pour les résultats des EVA, les différences étaient statistiquement significatives à 2 temps : T3Ph1 (Médiane Invisalign®=33,31, Médiane Speed=49,47; p=0,025) et T3Ph4 (Médiane Invisalign®=13,15, Médiane Damon=27,28; p=0,014). Pour la majorité des patients la douleur ne nécessitait pas la prise de médicament et il n’y avait pas de différence significative entre les groupes sur ce point. La qualité de vie était légèrement affectée lors de la première phase et moindrement pour le groupe Invisalign® que pour les groupes avec boîtiers. Pour les patients Invisalign®, la douleur atteignait son niveau le plus élevé entre 5 et 24 heures après l’insertion de la première coquille, et diminuait en intensité et en durée à chaque phase. Conclusion: La perception de la douleur lors d’un traitement orthodontique avec Invisalign® est inférieure à celle ressentie lors d’un traitement avec des boîtiers fixes. Cette méthode de traitement est donc une thérapie attirante pour les patients désirant un traitement esthétique et relativement confortable.
Resumo:
Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.
Resumo:
Les solvants industriels, utilisés dans un grand nombre de secteurs économiques, constituent une préoccupation majeure pour les responsables de la santé et de la sécurité du travail. Leurs propriétés irritantes, leurs effets toxiques sur le système nerveux et les appareils d’épuration (reins, foie), leur rôle dans la pollution ou leur risque d’explosion ou d’incendie sont bien connus. Cet ouvrage fait le point sur la prévention des risques professionnels associés aux solvants, notamment avec l’introduction des méthodes de substitution, solvants de remplacement et procédés de rechange. Après un rappel des effets sanitaires et environnementaux des grandes familles de solvants, de leurs utilisations et de leurs caractéristiques physicochimiques, les auteurs exposent et analysent les nouveaux outils envisageables en matière de sûreté d’utilisation des produits solvants, et de substitution en général, pour se concentrer ensuite sur les procédés de ventilation, la protection des personnes exposées et la prévention des risques d’inflammabilité des solvants en milieu de travail. Enfin, plusieurs éléments pratiques complètent cet ouvrage, portant sur les fiches de données de sécurité et autres sources d’information pour l’entreprise. Par son apport d’informations théoriques et pratiques ainsi que ses analyses méthodiques, cet ouvrage représente un texte de référence parfaitement adapté aux attentes des médecins du travail, hygiénistes et de tout professionnel impliqué dans la prévention des accidents et la protection de l’environnement.
Resumo:
La question posée dans ce mémoire de recherche concerne l’artiste contemporain japonais Aida Makoto, comme figure provocante et ironique, remettant en question les appareils de répression et d’aliénation de la société capitaliste japonaise. L’objectif de ma réflexion est de montrer l’apport de la schizo-analyse dans l’analyse d’œuvres plastiques comportant des prédispositions à l’utilisation de celle-ci. À travers les œuvres de l’artiste Aida Makoto où une multiplicité de corps emplit l’espace de la toile, et à partir des concepts de multiplicité et de sensation théorisés par Gilles Deleuze et Félix Guattari, la recherche apportera une seconde lecture aux œuvres de cet artiste en mettant en avant les aspects révolutionnaires de sa création artistique. Constitué de deux chapitres, le mémoire porte dans un premier temps sur la picturalité de l’œuvre, d’ordre technique, esthétique et éthique, en mettant en avant les composés de sensation présents sur la toile, ceci afin, dans un second temps, d’appréhender la figuration, de la visagéité à la multiplicité, comme aspect central de l’œuvre. Ainsi, la Figure, au sens deleuzien du terme, permettrait à l’artiste Aida Makoto d’entamer une fuite schizophrénique à l’occasion de laquelle il pourra créer à l’abri de toute répression ou normalisation de ses machines désirantes par la société capitaliste japonaise.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.