739 resultados para Hidden homelessness
Resumo:
La problématique de l’observance de la biosécurité est présente dans tous les types de production. Il est essentiel de définir des stratégies pour améliorer l’application des mesures de biosécurité. Cette étude décrit l’application des mesures de biosécurité à l’entrée et à la sortie de 24 bâtiments d’élevages avicoles au Québec, Canada. L’effet des audits et de caméras visibles sur l’observance a été étudié, de même que les déterminants de l’observance. De plus, la relation entre l’observance et les profils de personnalité, l’expérience et l’éducation a été décrite. L’application des mesures de biosécurité a été évaluée à l’aide de caméras cachées. L’observance à court terme (deux premières semaines) et à moyen terme (six mois plus tard) a été déterminée. Basés sur les résultats du groupe contrôle, 44 différentes erreurs lors de l’application des mesures de biosécurité ont été observées à l’entrée et la sortie des bâtiments. La plupart étaient reliées à la délimitation des zones (propre versus contaminée). La nature et la fréquence des erreurs suggèrent un manque de compréhension des principes associés aux mesures de biosécurité. Le visionnement des vidéos a révélé 3055 visites par 277 individus différents (136 employés, 123 visiteurs, 3 superviseurs et 15 éleveurs). Les résultats ont démontré que les audits n’avaient pas d’impact sur l’observance des employés. Les caméras visibles ont eu un impact, à court terme, sur le port de bottes et le respect des zones durant la visite. Par contre, six mois plus tard, l’observance avait significativement diminué, au point de ne plus être statistiquement plus élevée que le groupe contrôle. La durée et le moment de la visite, la présence de l’éleveur ou d’un observateur, la conception de l’entrée, le nombre de bâtiments, le nombre de mesures de biosécurité exigé, le type de bottes, le genre et être membre de la famille de l’éleveur étaient significativement associés à l’observance de certaines mesures. Finalement, trois traits de la personnalité étaient associés à l’observance: responsabilité, orienté vers l’action et complexité, de même que le nombre d’années d’expérience et le niveau d’éducation. Il est nécessaire d’améliorer la formation en matière de biosécurité en fournissant du matériel de formation à tous les intervenants qui démontrent pourquoi et comment appliquer les mesures de biosécurité. La formation continue devrait également aborder les problématiques reliées aux caractéristiques de visites et de fermes. Améliorer la conception des entrées de bâtiments devrait contribuer à augmenter et à maintenir l’observance. L’identification de traits de personnalité associés à l’observance peut avoir des implications sur la sélection des candidats à l’embauche ou sur l’attribution de tâches et sur la planification des programmes de formation.
Resumo:
De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.
Resumo:
Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie (option Analyse Criminologique).
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
Camp met en présence un officier nazi et ses Juifs : une petite fille s’appuyant sur sa vie d’avant afin de survivre dans sa vie d’après, une jeune femme d’une cinglante liberté intérieure et un groupe de prisonniers, la masse grise. Ce récit se déroule en quelques jours dans un camp d’extermination, en Pologne. Il y est question d’un projet insensé, imaginé et mis en œuvre par le Nazi dont le discours s’apparente à de confuses et dérisoires logorrhées. La recherche d’une humanité déniée, à la base du dévoilement de l’individualité des personnages (prisonniers), émane de la grâce, de l’authenticité et de la force vitale de la protagoniste, la petite fille, tendue vers son plan-de-quand-même-vie. Forêt, écrit en parallèle, puis à la fin de Camp, n’est pas sa suite, mais l’est aussi… Court récit poétique, il raconte la traversée d’une forêt par une femme à la recherche de ses édens. Le lieu, interpellé et très souvent conspué pour ce qu’il est devenu, devient un actant. Forêt, se servant de ses restes mythiques, contraint le pas-à-pas de la femme, perdue d’avance. L’essai, Quatre objets de mémoire, porte sur l’appropriation et la transmission de la mémoire de la Shoah, à partir de restes, de détails, de petits riens, perçus ici comme d’imaginables traces. J’interroge les signes singuliers d’improbables objets (feuillets administratifs du Troisième Reich, clichés fragmentaires d’Auschwitz-Birkenau et photographies de ses bois et de ses latrines) afin d’y débusquer de petits morceaux du caché, du secret et de l’innommable de la Solution finale. L’affect ressenti en présence de ces objets, par ce que je nomme, le nécessaire abandon, y est analysé dans le dessein d’en saisir leurs douleurs et de les rendre miennes. L’œuvre de l’artiste de la photo, Marie-Jeanne Musiol, sur Auschwitz-Birkenau, est à la base de ce désir de mémoire pérenne.
Resumo:
Article
Resumo:
Cette recherche explore le Théâtre-forum comme support méthodologie d’un espace délibératif pour discuter des tensions sociales liées à la coprésence au centre-ville de Montréal entre des personnes en situation de rue et leurs voisins domiciliés. L’argument au cœur de la problématique repose sur les taches aveugles de la délibération: dans les forums de quartier, les inégalités sociales se traduisent par des inégalités délibératives au désavantage des personnes sans adresse en défaut d’autorité épistémologique en raison de leur statut; ces inégalités délibératives reproduisent le déni de reconnaissance qui traverse l’expérience relationnelle de ces personnes. Le Théâtre-forum est issu du Théâtre de l’opprimé : une pratique d’intervention théâtrale conçue par Augusto Boal durant la dictature au Brésil comme dispositif émancipateur pour les groupes opprimés. Le Joker incite les membres de l’auditoire à devenir Spect-acteurs par les remplacements du protagoniste, et ce, afin de surmonter son oppression. Ainsi, cette projection dans les chaussures du protagoniste-itinérant facilite-t-elle ce passage de l’indignité à la reconnaissance pour les personnes en situation de rue? L’échange théâtral peut-il ouvrir la voie vers la reconstruction d’un lien intersubjectif entre personnes sans adresse et domiciliés, intersubjectivité qui au cœur-même des vertus délibératives et des principes fondateurs défendus par les théoriciens de la reconnaissance comme Honneth et Renault?
Resumo:
Alors que, dans les années soixante, l’étude des conditions sociales dans leurs conséquences sur la santé mentale semblait une voie d’avenir pour la recherche psychiatrique (Sicot, 2001), il semble que, dans le contexte actuel, elle soit redevenue « hors propos ». Dans ce contexte où la plupart reconnaissent l’hégémonie de l’approche biologique en psychiatrie, quelle place peut être réservée aux conditions sociales pour expliquer l’origine des problèmes de santé mentale? Plusieurs auteurs, issus de la psychiatrie et des sciences humaines, se sont attardés à cette question. De leur avis, certaines conditions sociales, comme celles vécues par les bonnes à tout faire, les assistés sociaux, les immigrants, seraient particulièrement propices au développement de problèmes de santé mentale. Il est proposé dans ce mémoire de se concentrer sur l’impact d’une condition sociale particulière, l’itinérance, sur la santé mentale des personnes qui la vivent. Au terme d’une recension des écrits, des auteurs comme Furtos (2007) ont conclu que l’itinérance, en tant que forme extrême d’exclusion sociale, est à même d’engendrer des problèmes de santé mentale. Toujours avec l’objectif de répondre à la question de l’impact des conditions sociales sur la santé mentale, ce mémoire s’intéresse au point de vue des premières concernées, c’est-à-dire celui des personnes en situation d’itinérance ayant des problèmes de santé mentale. Sur le plan méthodologique, il se fonde sur 10 récits de vie de participants au projet Chez soi, projet de recherche et démonstration sur la santé mentale et l’itinérance de Montréal. Ce mémoire met en lumière les facteurs explicatifs soulignés par les participants au fil de leurs récits de vie et les compare à ceux identifiés dans la littérature se situant dans le courant sociogénétique.
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.
Resumo:
Cette thèse a fait l'objet d'une publication: Le nouveau sujet du droit criminel : effets secondaires de la psychiatrie sur la responsabilité pénale / Christian Saint-Germain. — Montréal : Liber, [2014]. — 358 pages ; 23 cm. ISBN 9782895784654.
Resumo:
La Vitamine K (VK) est largement reconnue pour son rôle dans la coagulation sanguine toutefois, de plus en plus de travaux indiquent son implication dans la fonction cérébrale. La VK est requise pour l'activation de différentes protéines, par exemple la protéine Gas6, et la ménaquinone-4 (MK-4), le principal vitamère K dans le cerveau, est impliquée dans le métabolisme des sphingolipides. Dans un rapport précédent, nous avons montré qu'un régime alimentaire faible en VK tout au long de la vie était associé à des déficits cognitifs chez des rats âgés. La warfarine sodique est un puissant antagoniste de la VK qui agit en bloquant le cycle de la VK, provoquant un «déficit relatif de VK » au niveau cellulaire. À la lumière du rôle émergent de la VK dans le cerveau, la warfarine pourrait représenter un facteur de risque pour la fonction cérébrale. Ce travail est donc pertinente en raison de la forte proportion d'adultes traîtés à la warfarine sodique. Dans la présente étude, 14 rats mâles Wistar ont été traités avec 14 mg de warfarine/kg /jour (dans l'eau potable) et des injections sous-cutanées de VK (85 mg/kg), 3x/sem, pendant 10 semaines. Quatorze rats témoins ont été traités avec de l'eau normale et injectés avec une solution saline. Les rats ont été soumis à différents tests comportementaux après quoi les niveaux de phylloquinone, MK-4, sphingolipides (cérébroside, sulfatide, sphingomyéline, céramide et gangliosides), et les sous-types de gangliosides (GT1b, GD1a, GM1, GD1b), ont été évalués dans différentes régions du cerveau. Comparativement aux rats du groupe contrôle, les rats traités à la warfarine présentaient des latences plus longues au test de la piscine de Morris (p <0,05) ainsi qu'une hypoactivité et un comportement exploratoire plus faible au test de « l’open field » (p <0,05). Le traitement par warfarine a également entraîné une diminution spectaculaire du niveau de MK-4 dans toutes les régions du cerveau (p <0,001), une altération des concentrations de sphingolipidiques, en particulier dans le cortex frontal et le mésencéphale (p <0,05), et une perte de différences régionales sphingolipidiques, notamment pour les gangliosides. Le traitement par warfarine a été associé à un niveau inférieur de GD1a dans l'hippocampe et un niveau supérieur de GT1b dans le cortex préfrontal et le striatum. En conclusion, la déficience en VK induite par warfarine altère les niveaux de VK et sphingolipides dans le cerveau, avec de potentiels effets néfastes sur les fonctions cérébrales.
Resumo:
Les processus Markoviens continus en temps sont largement utilisés pour tenter d’expliquer l’évolution des séquences protéiques et nucléotidiques le long des phylogénies. Des modèles probabilistes reposant sur de telles hypothèses sont conçus pour satisfaire la non-homogénéité spatiale des contraintes fonctionnelles et environnementales agissant sur celles-ci. Récemment, des modèles Markov-modulés ont été introduits pour décrire les changements temporels dans les taux d’évolution site-spécifiques (hétérotachie). Des études ont d’autre part démontré que non seulement la force mais également la nature de la contrainte sélective agissant sur un site peut varier à travers le temps. Ici nous proposons de prendre en charge cette réalité évolutive avec un modèle Markov-modulé pour les protéines sous lequel les sites sont autorisés à modifier leurs préférences en acides aminés au cours du temps. L’estimation a posteriori des différents paramètres modulants du noyau stochastique avec les méthodes de Monte Carlo est un défi de taille que nous avons su relever partiellement grâce à la programmation parallèle. Des réglages computationnels sont par ailleurs envisagés pour accélérer la convergence vers l’optimum global de ce paysage multidimensionnel relativement complexe. Qualitativement, notre modèle semble être capable de saisir des signaux d’hétérogénéité temporelle à partir d’un jeu de données dont l’histoire évolutive est reconnue pour être riche en changements de régimes substitutionnels. Des tests de performance suggèrent de plus qu’il serait mieux ajusté aux données qu’un modèle équivalent homogène en temps. Néanmoins, les histoires substitutionnelles tirées de la distribution postérieure sont bruitées et restent difficilement interprétables du point de vue biologique.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.
Resumo:
La colonisation sur les terres autochtones a eu des effets considérables sur l’organisation politique et sociale, le mode de vie et la culture des Innu.es, notamment en les dépossédant de leurs territoires et en leur imposant un système politico-économique fondé sur le capitalisme et l’étatisme. Ce mémoire explore les différentes stratégies de résistance adoptées par les Innu.es de la communauté de Pessamit pour faire face à ces impositions coloniales qui n’ont jamais cessé et interroge la capacité de ces luttes à se situer à l’extérieur de l’idéologie dominante. D’une part, des résistances ouvertes et déclarées confrontent publiquement les structures dominantes tout en pouvant paraître s’inscrire à l’intérieur des balises imposées par l’idéologie dominante, c'est-à-dire incapables de s’en extraire. D’autre part, certaines résistances sont plus discrètes, cachées, internes à la communauté et à sa vie quotidienne : l’infrapolitique. Il s’agit d’espaces politiques et sociaux de la communauté qui favorisent la protection de la culture innue (notamment sa langue), la valorisation d’un renouveau spirituel, la guérison de la population, l’occupation quotidienne des terres. Ainsi, l’enquête de terrain a révélé que les formes de luttes à Pessamit sont multiples, hétérogènes et parfois interdépendantes en tant qu’elles se complètent les unes les autres.