8 resultados para Hodgson, Geoffrey M
em Université de Montréal, Canada
Resumo:
Il existe des interactions complexes entre les perceptions du public, les demandes et les attentes envers les professionnels de la santé par rapport au dépistage des gènes de susceptibilité au cancer et aux services médicaux offerts. Ce chapitre étudie les aspects éthiques et juridiques de ces interactions avec une emphase sur le consentement, la confidentialité, l’emploi, l’assurance et le dépistage chez les mineurs et les majeurs inaptes. Ce chapitre conclu sur la prise en compte d’enjeux entourant la propriété de l’information génétique et les brevets et propose des principes pouvant servir de base pour une responsabilité partagée quant à la participation des patients dans le développement de lignes directrices encadrant le dépistage des gènes de susceptibilité au cancer.
Resumo:
Les différents commentateurs de Lovecraft se sont au fil du XXe siècle jusqu’à nos jours entendus sur un point : l’originalité de son oeuvre. Impossible à cataloguer dans un genre littéraire précis, offrant de multiples couches d’interprétation, celle-ci fut analysée à la fois sous l’angle psychanalytique et sous l’angle philosophique et scientifique. Cependant, la dimension purement esthétique semble, peut-être par négligence, avoir été oubliée. Notre mémoire propose une investigation de l’esthétique dans l’oeuvre de Lovecraft. Notre hypothèse de recherche repose sur les analogies évidentes et pourtant peu approfondies par la critique entre l’esthétique de celle-ci et l’esthétique cosmogonique de l’Antiquité. Dans un premier temps, nous situerons l’œuvre dans son contexte littéraire, c’est-à-dire que nous nous pencherons sur les rapports évidents qu’elle entretient avec des auteurs tels que J.R.R. Tolkien et Arthur Conan Doyle et sur les différences moins évidentes qui la distinguent d’autres d’auteurs tels que H.G. Wells et William Hope Hodgson. Ensuite, nous mettrons en perspective les différences qui la séparent logiquement de la cosmogonie hébraïque et de la tradition théologique et philosophique qu’elle inaugure, entre autres, tel qu’elle se cristallise dans La Divine Comédie de Dante. Finalement, nous démontrerons à partir d’une comparaison serrée de motifs analogues, présents dans la longue nouvelle de Lovecraft, At the Mountains of Madness et dans le poème d’Hésiode, La Théogonie, le parallèle révélateur entre leurs esthétiques respectives; leurs esthétiques qui découlent de paradigmes du réel historiquement et essentiellement distincts, mais non pas opposés ou contradictoires.
Resumo:
Cette thèse entend contribuer à la compréhension du processus de conception architecturale par le biais du concept de tectonique, notion dont l’historicité confirme une certaine diversité de significations, mais qui suscite une réflexion fondamentale sur le rapport entre l’esthétique architecturale et les moyens constructifs. La connaissance technique de la construction, constituée principalement au 18ème siècle, permettra une nouvelle réflexion sur le rapport entre l’esthétique architecturale et les moyens constructifs. Au 19ème siècle, moment de l’apparition du concept de « tectonique » dans le contexte du débat sur la notion de style, l’indéniable contribution de l’architecte et théoricien Gottfried Semper reconnaît la complexité matérielle de l’édifice. La reprise du terme au 20ème siècle par l’historien et théoricien Kenneth Frampton va quant à elle déplacer le sens de la tectonique vers l’idée d’un « potentiel d’expression constructive ». Ces deux auteurs représentent deux grandes approches tectoniques convergeant sur la nécessité, pour toute théorie de l’architecture, d’encourager une réflexion critique de la construction. Cette thèse se développe en deux parties, l’une retraçant l’histoire et les enjeux de la tectonique, l’autre, de nature plus concrète, cherchant à tester l’actualité du concept à travers une série d’analyses tectoniques de projets modernes et contemporains. À la croisée de deux contextes géographiques différents, le Canada et le Brésil, le corpus de projets de concours que nous avons constitué considère la tectonique comme un phénomène transculturel. Nous formulons l’hypothèse d’une « tectonique du projet », c’est-à-dire d’un espace théorique dans lequel les questions relatives au bâtiment s’élaborent dans des « tensions » dialectiques. L’actualité des catégories semperiennes, dans lesquelles les différents « éléments » du bâtiment représentent différentes techniques de construction, est revisitée à partir de l’étude des projets de Patkau Architects (1986) et de MMBB Arquitetos (1990). Une tension entre les expressions symbolique et formelle issues du matériau brut est plus explicite dans l’étude des projets de Ramoisy Tremblay architectes (2002) et de Brasil Arquitetura (2005). La théorie de la transformation de matériau (Stoffwechseltheorie) de Semper est réexaminée parallèlement dans les projets d’Arthur Erickson et Geoffrey Massey (1967) et de Paulo Mendes da Rocha (1969). Dans l’ensemble de tensions tectoniques présentes tout au long de la conception, nous avons retenu plus particulièrement : le contact avec le sol, la recherche d’une homogénéité constructive, ou son opposé, la recherche d’une variété matérielle et, finalement la tension entre la dimension représentationnelle et la dimension technique de l’architecture. La modélisation du concept de tectonique, par un ensemble de tensions auxquelles les concepteurs doivent s’adresser en phase de projet, confirme que des questions en apparence simplement « techniques » concernent en fait tout autant le génie de l’invention que la connaissance historique des idées architecturales.
Resumo:
C'est avec beaucoup de complexité et d'ambiguïté que les opérations de la paix des Nations Unies se sont déployées sur la scène internationale au cours des dernières décennies. Si le déploiement de ces opérations reflète avant tout la matérialisation de l’un des buts fondamentaux de l’ONU, à savoir : le maintien de la paix et de la sécurité internationale (Article 1(1) de la Charte des Nations Unies), il n'en reste pas moins manifeste que les actions qu’elles entreprennent sur le terrain sont susceptibles de produire des effets préjudiciables pour les tiers. La question que pose le présent mémoire est donc de savoir si, et dans quelle mesure, la responsabilité de l'ONU est régie par le droit international lorsque des tiers subissent des dommages matériels et corporels du fait des troupes des opérations de paix des Nations Unies. Que prévoit le droit international ? Existe-t-il pour les victimes des voies de réparations ? S’interroger sur la responsabilité de l’ONU suppose que l’on tienne compte avant tout de sa personnalité juridique internationale, car l’existence juridique de l’Organisation universelle constitue le postulat primaire sur lequel sera fondée sa responsabilité internationale. L’avis consultatif de la Cour Internationale de Justice du 11 avril 1949 sur la Réparation des dommages subis au service des Nations Unies représente le moment précis de cette personnification de l’ONU sur la scène internationale. D’un point de vue plus substantiel, les contours de la responsabilité onusienne dans le contexte du maintien de la paix se dessineront autour d’un élément central : « le fait internationalement illicite ». Celui-ci comprend deux éléments; d’une part, un élément objectif consistant en un comportement précis (action ou omission)violant une obligation internationale; et, d’autre part, un élément subjectif attribuant à l’Organisation ce manquement au droit international. Cette ossature de la responsabilité onusienne permettra d’appréhender de façon plus précise dans quelle mesure l’Organisation pourrait être tenue responsable de ses actes ou omissions dans le contexte du maintien de la paix. Plus encore, elle nous permet de plaider pour une responsabilité intégrée tenant compte des facteurs endogènes propres à toute situation, mais aussi faisant de l’individu dans le droit international des sujets dont les intérêts sont susceptibles de protection juridique.
Resumo:
Peu d’études ont exploré l’utilisation du traitement prolongé pour les mammites cliniques et aucune ne portait sur l’utilisation du traitement prolongé à base de ceftiofur pour le traitement des mammites cliniques légères à modérées. L’objectif de cette étude était d’évaluer l’efficacité du traitement intra-mammaire prolongé à base de ceftiofur pour les mammites cliniques légères à modérées, en considérant toutes les bactéries responsables ou seulement Staphylococcus aureus (S. aureus) et les streptocoques. Des vaches laitières (n = 241) de 22 élevages du Québec et de l’Ontario ont été inclues. L’étude a été conçue comme un essai clinique à allocation aléatoire. Pour chaque cas de mammite clinique légère à modérée, 125 mg d’hydrochloride de ceftiofur (Spectramast® LC) a été administré par voie intra-mammaire une fois par jour pour 2 ou 8 jours. Le pourcentage de guérison clinique 21 jours après la fin du traitement était de 89% (n = 98/110 pour chaque groupe, p = 0,95). Les pourcentages de guérison bactériologique 21 jours après la fin du traitement pour les groupes 2 jours et 8 jours étaient 32% (n = 15/47) et 61% (n = 25/41) respectivement pour toutes les bactéries (p < 0,01); 64% (n = 9/14) et 82% (n = 9/11) respectivement pour les streptocoques (p = 0,50); et 0% (n = 0/20) et 47% (n = 9/19) pour S. aureus (p < 0,01). Il n'y avait pas de différence entre les 2 groupes pour les nouvelles infections intra-mammaires (p = 0,30). Le traitement prolongé à base de ceftiofur est un choix raisonnable pour le traitement des mammites cliniques légères à modérées, en particulier causées par S. aureus.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
In this article, we discuss the first year research plan for the INKE interface design team, which focuses on a prototype for chaining. Interpretable as a subclass of Unsworths scholarly primitive of discovering, chaining is the process of beginning with an exemplary article, then finding the articles that it cites, the articles they cite, and so on until the reader begins to get a feel for the terrain. The chaining strategy is of particular utility for scholars working in new areas, either through doing background work for interdisciplinary interests or else by pursuing a subtopic in a domain that generates a paper storm of publications every year. In our prototype project, we plan to produce a system that accepts a seed article, tunnels through a number of levels of citation, and generates a summary report listing the most frequent authors and articles. One of the innovative features of this prototype is its use of the experimental oil and water interface effect, which uses text animation to provide the user with a sense of the underlying process.