952 resultados para Méthodes de recherche avec tabous
Resumo:
Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs.
Resumo:
L’estimation temporelle de l’ordre des secondes à quelques minutes requiert des ressources attentionnelles pour l’accumulation d’information temporelle pendant l’intervalle à estimer (Brown, 2006; Buhusi & Meck, 2009; Zakay & Block, 2004). Ceci est démontré dans le paradigme de double tâche, où l’exécution d’une tâche concurrente pendant l’estimation d’un intervalle mène à un effet d’interférence, soit une distorsion de la durée perçue se traduisant par des productions temporelles plus longues et plus variables que si l’estimation de l’intervalle était effectuée seule (voir Brown, 1997; 2010). Un effet d’interférence est également observé lorsqu’une interruption est attendue pendant l’intervalle à estimer, l’allongement étant proportionnel à la durée d’attente de l’interruption (Fortin & Massé, 2000). Cet effet a mené à l’hypothèse que la production avec interruption serait sous-tendue par un mécanisme de partage attentionnel similaire à la double tâche (Fortin, 2003). Afin d’étudier cette hypothèse, deux études empiriques ont été effectuées dans des contextes expérimentaux associés respectivement à une augmentation et à une diminution de l’effet d’interférence, soit le vieillissement (Chapitre II) et l’entraînement cognitif (Chapitre III). Dans le Chapitre II, la tâche de production avec interruption est étudiée chez des participants jeunes et âgés à l’aide de la spectroscopie proche infrarouge fonctionnelle (SPIRf). Les résultats montrent que l’attente de l’interruption est associée à des coûts comportementaux et fonctionnels similaires à la double tâche. Au niveau comportemental, un allongement des productions proportionnel à la durée d’attente de l’interruption est observé chez l’ensemble des participants, mais cet effet est plus prononcé chez les participants âgés que chez les jeunes. Ce résultat est compatible avec les observations réalisées dans le paradigme de double tâche (voir Verhaegen, 2011 pour une revue). Au niveau fonctionnel, la production avec et sans interruption est associée à l’activation du cortex préfrontal droit et des régions préfrontales dorsolatérales connues pour leur rôle au niveau de l’estimation temporelle explicite (production d’intervalle) et implicite (processus préparatoires). En outre, l’attente de l’interruption est associée à l’augmentation de l’activation corticale préfrontale dans les deux hémisphères chez l’ensemble des participants, incluant le cortex ventrolatéral préfrontal associé au contrôle attentionnel dans la double tâche. Finalement, les résultats montrent que les participants âgés se caractérisent par une activation corticale bilatérale lors de la production sans et avec interruption. Dans le cadre des théories du vieillissement cognitif (Park & Reuter-Lorenz, 2009), cela suggère que l’âge est associé à un recrutement inefficace des ressources attentionnelles pour la production d’intervalle, ceci nuisant au recrutement de ressources additionnelles pour faire face aux demandes liées à l’attente de l’interruption. Dans le Chapitre III, la tâche de production avec interruption est étudiée en comparant la performance de participants assignés à l’une ou l’autre de deux conditions d’exécution extensive (cinq sessions successives) de double tâche ou de production avec interruption. Des sessions pré et post-test sont aussi effectuées afin de tester le transfert entre les conditions. Les résultats montrent un effet d’interférence et de durée d’interférence tant en production avec double tâche qu’en production avec interruption. Ces effets sont toutefois plus prononcés lors de la production avec interruption et tendent à augmenter au fil des sessions, ce qui n’est pas observé en double tâche. Cela peut être expliqué par l’influence des processus préparatoires pendant la période pré-interruption et pendant l’interruption. Finalement, les résultats ne mettent pas en évidence d’effets de transfert substantiels entre les conditions puisque les effets de la pratique concernent principalement la préparation temporelle, un processus spécifique à la production avec interruption. Par la convergence que permet l’utilisation d’un même paradigme avec des méthodologies distinctes, ces travaux approfondissent la connaissance des mécanismes attentionnels associés à l’estimation temporelle et plus spécifiquement à la production avec interruption. Les résultats supportent l’hypothèse d’un partage attentionnel induit par l’attente de l’interruption. Les ressources seraient partagées entre les processus d’estimation temporelle explicite et implicite, une distinction importante récemment mise de l’avant dans la recherche sur l’estimation du temps (Coull, Davranche, Nazarian & Vidal, 2013). L’implication de processus dépendant des ressources attentionnelles communes pour le traitement de l’information temporelle peut rendre compte de l’effet d’interférence robuste et systématique observé dans la tâche de production avec interruption.
Resumo:
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.
Resumo:
«Halal/ » : une prescription de la religion musulmane qui circonscrit ce qui est permis, mais surtout un marché en croissance exponentielle. Le marché du halal pèse près de 700 milliards de dollars de chiffre d’affaires annuel et intéresse 1,6 milliard de musulmans dans le monde (Bel Hadj, 2015). Entre 2014 et 2015, les dépenses alimentaires du monde musulman ont affiché une progression de 4,3% en atteignant 1158 milliards de dollars soit 16,7% des dépenses alimentaires de la planète . Ces dépenses dépasseront la barre symbolique des 2000 milliards de dollars d’ici 2025. En France, le marché est en constante croissance à deux chiffres (entre 17 à 20 % les cinq dernières années), il est estimé à 5,5 et 7 milliards d’euros par an .Face à l’évidence de l’ampleur et du potentiel du marché du halal dans le monde et en particulier en France, plusieurs tentatives d’élucidation du phénomène sont avancées. En observant de près les pratiques marketing, nous constatons un «déni» total des origines religieuses et une préférence pour la carte du purement ethnique. La recherche, quant à elle, reste fragmentée. Si dans certaines disciplines on préfère encore parler d’un phénomène purement religieux, d’autres tiennent encore à l’étiquette communautaire. Ce flou persiste avec la vision monochrome et surtout cloisonnée entre plusieurs domaines d’études. La recherche dans la discipline du comportement du consommateur, qu’elle s’intéresse à l’essence de la proscription religieuse ou qu’elle se focalise sur la dimension ethnique, n’investigue pas automatiquement toutes les raisons pour lesquelles un individu respecte les règles du halal. La sociologie semble être la discipline qui a su arpenter les chemins les plus sinueux pour tenter d’apporter plus de compréhension à ce phénomène qui ne cesse de prendre de l’envergure et d’attirer les controverses les plus acerbes. C’est aussi la discipline qui a su capturer l’évolution des générations d’immigrants et a su exprimer la complexité de l’expression alimentaire de la deuxième génération mais aussi le défi que relève la communauté maghrébine à cohabiter avec la stigmatisation. Cette deuxième génération d’«immigrants» maghrébins qui n’ont jamais immigré, décide de «manger pour croire » en «se nourrissant de nostalgie » pour une culture qu’ils vivent par procuration à défaut de pouvoir s’intégrer entièrement dans la société française. Il devenait pour nous fondamental de considérer cette pratique alimentaire dans une perspective plus large qui favorise l’élan de l’engagement et de la revendication identitaire affichée. Dans cette voie, et dans la ligne directrice des travaux en sociologie qui ont été notre principale inspiration tout au long de ce travail, notre projet s’inscrit dans une volonté de saisir cette consommation à travers un héritage à la fois culturel, migratoire, familial et une trajectoire propre à chaque individu. Pour arriver à cette fin, nous avons privilégié l’enquête par questionnaire (432 observations) auprès des immigrants de deuxième génération habitant la région parisienne. Pour l’analyse, nous avons opté pour les méthodes des équations structurelles, avec l’ambition de démêler la toile d’araignée à la fois culturelle, sociale et personnelle sans s’enliser dans les a priori, les polémiques et les partis pris. Pour ce faire, nous avons, tout au long de ce travail abordé le halal sous l’angle d’un fait religieux comportant de multiples facettes, à la fois collectives et individuelles, conservatrices et modernistes, désintéressées ou engagées. Nos résultats confirment cette relation de conviction étroite avec la consommation halal. Outre la religion, construit de prédilection des principales recherches en comportement du consommateur, le présent travail doctoral confirme les apports de certaines valeurs (sécurité, stimulation/hédonisme) de l’acculturation mais aussi de la socialisation alimentaire. Cette dernière a cristallisé l’impact de la composante comportementale de l’apprentissage sur la consommation, mais a surtout révélé l’impact de la composante affective sur cet apprentissage. Du côté de l’acculturation, seul l’attachement à la culture hôte a prouvé son influence négative sur la consommation alimentaire halal. Les polémiques récurrentes qui collent au halal nous ont également suggéré la voie de la confiance en la certification, qui a elle aussi confirmé qu’il s’agit désormais d’un phénomène de conscience, de revendication mais aussi d’un engagement responsable du consommateur pour harmoniser ce qu’il incorpore avec ce qu’il est.
Resumo:
Avec le vieillissement des infrastructures routières au Québec, plusieurs ponts de courte portée devront être reconstruits à neuf au cours des prochaines années. La pratique usuelle est de les concevoir entièrement en béton ou en systèmes mixtes acier-béton. Toutefois, avec l’avancement de la recherche dans le domaine du bois, le système hybride bois-béton est envisageable. Le but est de tirer profit des avantages de chaque matériau en les disposant aux endroits appropriés. Le tablier du pont est constitué d’une dalle de béton qui agit en compression et protège des intempéries les poutres en bois lamellé-collé qui résistent en traction. L’enjeu est la capacité de lier efficacement ces deux matériaux pour qu’ils puissent reprendre les efforts dus aux charges de conception avec un glissement d’interface minimal. De nombreux chercheurs ont proposé diverses méthodes pour répondre à cette problématique. Les connecteurs locaux (vis, clous) sont moins rigides et se déforment beaucoup à l’ultime. À l’inverse, les connecteurs continus offrent une rigidité très élevée, de petits déplacements à rupture sans négliger la plasticité du système. Pour cette raison, le connecteur choisi est le HBV Shear, une mince bande d’acier de 90mm de hauteur perforée de trous de 10mm. Sa moitié inférieure est collée dans une fente pratiquée dans la poutre et la partie supérieure est immergée dans le béton. Pour caractériser le comportement du connecteur, dix essais en cisaillement simple ont été effectués. Ils ont permis de quantifier la rigidité et d’apprécier la ductilité qui s’installe dans le système par l’ajout de l’acier. Par la suite, six poutres hybrides simple de 4 m, deux systèmes à poutres double de 4m et deux poutres hybrides de 12m de portée ont été amenées à la rupture en flexion. Ces essais ont montré que le connecteur se brisait sous l’effort de manière ductile avant la rupture fragile de la poutre en bois. Les résultats ont aussi prouvé que les méthodes de calculs utilisées estiment correctement la séquence de rupture ainsi que le comportement du système avec une très grande efficacité. Finalement, un tablier de pont composite a été conçu pour résister aux efforts à l’ultime, en service et à long terme.
Resumo:
L’un des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui n’existent pas réellement dans les données, tandis qu’une trop faible complexité mène au sous-apprentissage, c’est-à-dire que l’expressivité du modèle est insuffisante pour capturer l’ensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par l’introduction d’une ou plusieurs variables cachées dont le rôle est d’expliquer le processus génératif des données. Il existe diverses approches permettant d’identifier le nombre approprié de variables cachées d’un modèle. Cette thèse s’intéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de l’apprentissage automatique est assez récente. Leur principal attrait vient du fait qu’elles offrent des modèles hautement flexibles et dont la complexité s’ajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes d’apprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement d’algorithmes d’inférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte d’apprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant l’apprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme d’inférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que l’approche proposée surpasse en performance et en flexibilité les approches classiques d’apprentissage. Dans un deuxième temps, nous proposons l’extended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur l’espace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet d’identifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme d’inférence Monte Carlo par chaîne de Markov est utilisé pour l’évaluation sur des problèmes d’identification de structures et d’estimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que l’extended cascading Indian buffet process servant à l’apprentissage de graphes et d’ordres. L’avantage du nouveau modèle est qu’il admet les connections entres les variables observables et qu’il prend en compte l’ordre des variables. Nous présentons un algorithme d’inférence Monte Carlo par chaîne de Markov avec saut réversible permettant l’apprentissage conjoint de graphes et d’ordres. L’évaluation est faite sur des problèmes d’estimations de densité et de test d’indépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant d’apprendre des réseaux Bayésiens disposant d’une structure complètement arbitraire.
Resumo:
Au Québec, les écoles sont situées dans une région où l’aléa sismique est considéré modéré à élevé. La majorité de ces écoles ont été construites avant les années 70 et comportent de la maçonnerie non armée (MNA) qui est un matériau à ductilité faible. Au cours des séismes passés notamment celui du Saguenay en 1988, il semble que les structures comportant de la MNA constituent le type de structure le plus dangereux vis-à-vis du séisme. La performance sismique de ces écoles est alors mise en question d’autant plus que la plupart ont été construites avant l’introduction des normes parasismiques. Ce projet de recherche traite de la vulnérabilité sismique des écoles comportant de la MNA et s’inscrit à la suite d’un projet d’élaboration d’une procédure de classification des écoles dans l’Est du Canada. Il découle d’une initiative du Réseau Canadien pour la Recherche Parasismique (RCRP) qui vise des procédures d’analyse de ces bâtiments en vue d’un programme de réhabilitation d’écoles, lancé par le Ministère de l’Éducation, des Loisirs et du Sport (MELS). Une procédure à trois niveaux pour l’évaluation de la vulnérabilité sismique des bâtiments dans l’Est du Canada a été élaborée par différents chercheurs de l’Université de Sherbrooke, de l’École de Technologie Supérieure et de l’Université McGill [Nollet et al., 2012]. Partant des conclusions de cette étude et d’une revue de littérature, les efforts de la recherche développeront un niveau d’évaluation sismique complète des écoles types au Québec comportant de la MNA comme murs de remplissage. Les objectifs seront donc de proposer un modèle adéquat du comportement sismique de la MNA issue de la littérature, étudier l’influence de la non linéarité de la MNA sur la réponse dynamique de ces écoles ainsi que l’influence de l’irrégularité en plan sur la réponse dynamique de ces écoles. La démarche comprend le développement des modèles Opensees [Mazzoni et al., 2004] et la modélisation des écoles génériques sur le logiciel OpenSees (l’un des défi majeur du projet), la validation des modèles à partir de valeurs empirique et expérimentale et enfin les analyses modales et temporelles.
Resumo:
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
Resumo:
Notre recherche explore quelques moments forts des métamorphoses du rapport politique à la mortalité sous examen des thèmes de l’interdit, de la dignité, de l’autonomie et de l’altérité. Nous dégageons des ancrages propices à nourrir la pensée actuelle en médecine palliative. Ainsi, nous livrons une enquête philosophique, appréciant pour nous Occidentaux, les influences marquantes des pensées gréco-romaine, chrétienne et moderne. Ces bases, édifiant notre monde politique, ont suscité l’émergence de la médecine palliative. C’est pourquoi, nous tentons de caractériser et de comprendre les problématiques nouvelles, dans leurs aspects politique et éthique, envisagées à l’aune des formes contemporaines d’accompagnement des mourants. Notre effort tente de discerner les aspirations et les impasses. L’étude de la métamorphose des repères fait ressortir une dissociation accentuée au fil du temps. En effet, au fur et à mesure, notre entreprise d’interprétation du fondement de ces questions politiques dévoilait : une reconnaissance universelle de l’interdit d’homicide, mais accusant une perte du lien moral au profit d’une visée amorale ; un aval unanime du respect de la dignité, mais manifestant une confusion et une division ostensible entre conceptions intrinsèque et extrinsèque ; une affirmation péremptoire de l’autonomie, mais avec une distanciation marquée au regard de la façon d’envisager la part de l’autre ; une déclinaison de liens humains reconnus de tous, mais exacerbés dans une tension artificielle entre individualisme et altruisme. Au surplus, en constatant la distance et la dislocation entre le public et le privé, entre la réclamation de fraternité et la recherche d’amicalité signifiante, nous avons envisagé la communauté palliative comme un lieu de résistance à cette décomposition menaçante au sein de la communauté politique. À terme de l’analyse, nous avons fondé les concepts « d’allonomie » et de « suspension éthique ». Il s’agit de contributions originales destinées à donner à la philosophie toute sa dimension sapientielle au service de l’accompagnement palliatif.
Resumo:
Les autorités gouvernementales canadiennes se sont données, depuis plus de 30 ans, une procédure pour évaluer les conséquences que les politiques, les plans ou les programmes fédéraux et provinciaux peuvent engendrer sur l’environnement. Si, avec le temps, l’évaluation a couvert une plus large définition de l’environnement pour intégrer les dimensions sociale et économique, la procédure d’évaluation environnementale stratégique est-elle pour autant adéquate? Y a-t-il un outil ou une méthode efficace qui pourrait améliorer son rendement? S’il est aujourd’hui accepté qu’un promoteur gouvernemental recherche l’acceptabilité sociale tout en mesurant les effets positifs et négatifs de son projet, ne pourrait-il pas adopter une méthodologie plus holistique et plus simple que la démarche d’identification et d’évaluation des impacts? C’est l’hypothèse qui sous-tend cet essai. L’objectif général de cet essai est de mener une réflexion sur l’utilisation de l’approche systémique dans l’élaboration de l’évaluation environnementale stratégique. En premier lieu, l’approche systémique sera étudiée de manière approfondie afin d’en faire ressortir ses bienfaits en matière de gestion de l’environnement. En second lieu, l’analyse de l’évaluation environnementale canadienne, américaine et européenne permettra de déceler les failles et les réussites dans la mise en place des plans, politiques et programmes. Finalement, une étude de cas sera utilisée pour valider l’hypothèse de travail. L’analyse révèle que l’utilisation de l’approche systémique dans le processus d’évaluation environnementale des plans, des politiques et des programmes est un outil judicieux et holistique hors pair. Non seulement cette méthode permet de tenir compte de toutes les préoccupations des parties prenantes, elle permet aussi de mieux cibler la problématique associée, d’adapter des mesures d’atténuation performantes et de mettre en oeuvre un programme de suivi efficace. Ces résultats démontrent le bénéfice d’utiliser une telle démarche dans ce processus rigoureux qu’est l’évaluation environnementale stratégique. En somme, l’utilisation de l’approche systémique dans l’élaboration de l’évaluation environnementale stratégique permettrait de mieux encadrer toutes les démarches visant à déceler les impacts positifs et négatifs sur l’environnement. Cet outil permettrait de satisfaire la volonté du gouvernement fédéral et des ministres promoteurs de promouvoir le développement de la société dans une perspective de développement durable.
Resumo:
Abstract: Highway bridges have great values in a country because in case of any natural disaster they may serve as lines to save people’s lives. Being vulnerable under significant seismic loads, different methods can be considered to design resistant highway bridges and rehabilitate the existing ones. In this study, base isolation has been considered as one efficient method in this regards which in some cases reduces significantly the seismic load effects on the structure. By reducing the ductility demand on the structure without a notable increase of strength, the structure is designed to remain elastic under seismic loads. The problem associated with the isolated bridges, especially with elastomeric bearings, can be their excessive displacements under service and seismic loads. This can defy the purpose of using elastomeric bearings for small to medium span typical bridges where expansion joints and clearances may result in significant increase of initial and maintenance cost. Thus, supplementing the structure with dampers with some stiffness can serve as a solution which in turn, however, may increase the structure base shear. The main objective of this thesis is to provide a simplified method for the evaluation of optimal parameters for dampers in isolated bridges. Firstly, performing a parametric study, some directions are given for the use of simple isolation devices such as elastomeric bearings to rehabilitate existing bridges with high importance. Parameters like geometry of the bridge, code provisions and the type of soil on which the structure is constructed have been introduced to a typical two span bridge. It is concluded that the stiffness of the substructure, soil type and special provisions in the code can determine the employment of base isolation for retrofitting of bridges. Secondly, based on the elastic response coefficient of isolated bridges, a simplified design method of dampers for seismically isolated regular highway bridges has been presented in this study. By setting objectives for reduction of displacement and base shear variation, the required stiffness and damping of a hysteretic damper can be determined. By modelling a typical two span bridge, numerical analyses have followed to verify the effectiveness of the method. The method has been used to identify equivalent linear parameters and subsequently, nonlinear parameters of hysteretic damper for various designated scenarios of displacement and base shear requirements. Comparison of the results of the nonlinear numerical model without damper and with damper has shown that the method is sufficiently accurate. Finally, an innovative and simple hysteretic steel damper was designed. Five specimens were fabricated from two steel grades and were tested accompanying a real scale elastomeric isolator in the structural laboratory of the Université de Sherbrooke. The test procedure was to characterize the specimens by cyclic displacement controlled tests and subsequently to test them by real-time dynamic substructuring (RTDS) method. The test results were then used to establish a numerical model of the system which went through nonlinear time history analyses under several earthquakes. The outcome of the experimental and numerical showed an acceptable conformity with the simplified method.
Resumo:
Ce mémoire de maitrise porte sur deux axes principaux : la mise en diagnostic et les enjeux que cela représente pour l’individu ainsi que la question du syndrome de stress post-traumatique (SSPT) dans une population particulière, celle des militaires français. À travers une étude de différents concepts anthropologiques tels que la sous-culture militaire, l’anthropologie du corps, de la mémoire et du discours, le travail de terrain a permis de mettre de l’avant l’expérience et l’impact du diagnostic du syndrome de stress post-traumatique. Les différentes étapes de la mise en diagnostic sont présentées afin de découvrir comment est vécue l’officialisation de ce trouble. Il est alors expliqué le paradoxe propre à ce diagnostic qui est posé, peu importe le type de choc traumatique à l’origine du SSPT. Cela permet de comprendre pourquoi le diagnostic du syndrome de stress post-traumatique reste un véritable enjeu lorsqu’il est question de la population militaire. Bien que de plus en plus de recherches existent sur le sujet au Canada ou aux États-Unis, la question en France reste encore en développement. C’est pourquoi cette recherche permet de découvrir la perception du trouble pour l’individu atteint et ses proches, la prévention et la prise en charge du stress post-traumatique à travers le diagnostic proposé actuellement.
Resumo:
Le but principal de cette recherche était d'identifier l'impact de rencontres à caractère expérientiel auprès de parents d'élèves du premier cycle du primaire sur la relation de coopération avec l'enseignant. Les données ont été recueillies auprès d'un échantillon de vingt-deux parents. À quatre reprises durant l'année scolaire, les parents ont été invités à participer à des rencontres à caractère expérientiel, en vue de leur permettre d'acquérir de nouvelles connaissances et de nouvelles habiletés par le biais d'expériences et de réflexions personnelles. Le sujet des rencontres avait préalablement été choisi par les parents et il était basé sur les questions et les besoins qu'ils avaient manifestés en lien avec le sujet. Les objectifs de ces rencontres étaient d'établir les conditions favorables pour mener une rencontre expérientielle de qualité, de vérifier l'impact qu'elles pouvaient avoir auprès du parent dans l'accompagnement de son enfant, auprès du parent dans sa relation avec l'enseignant, et auprès de l'enseignant dans sa relation avec le parent. À la fin de chaque rencontre, un document était remis aux parents afin qu'ils aient des outils pour soutenir leur enfant quant au sujet abordé. De plus, un questionnaire d'évaluation était rempli par les parents afin de vérifier l'impact de ces rencontres au regard des objectifs mentionnés. Finalement, une entrevue individuelle a été réalisée auprès de deux parents afin qu'ils témoignent de leur expérience.
Resumo:
Plusieurs études se sont penchées sur les effets de l’activité physique maternelle sur le poids du nouveau-né, un paramètre reflétant l’environnement intra-utérin associé au risque ultérieur d’obésité et de problèmes métaboliques. Devant les taux alarmants d’obésité infantile à travers le monde, l’identification d’interventions préventives efficaces devient un enjeu majeur dans la lutte contre l’obésité et ses complications. L’activité physique maternelle pourrait être une avenue intéressante, étant donné ses effets bénéfiques sur le gain de poids et le profil métabolique maternels et son potentiel de diminution du poids de naissance de l’enfant. Cependant, la dose optimale d’activité physique et ses effets sur la composition corporelle du nouveau-né sont encore méconnus. Par ailleurs, la majorité des femmes enceintes ne rencontrent pas les recommandations en matière d’activité physique durant la grossesse et les femmes obèses, chez qui les bienfaits de l’activité physique pourraient possiblement avoir le plus grand impact, présentent souvent les niveaux les plus bas. Curieusement, peu d’études ont évalué les effets d’une intervention d’activité physique durant la grossesse dans cette population. Ainsi, avant d’envisager l’activité physique comme une intervention thérapeutique non-pharmacologique durant la grossesse, il importe d’en évaluer la faisabilité et la sécurité et d’en connaître extensivement les effets. Notamment, il s’avère primordial de vérifier s’il est possible d’augmenter en toute sécurité les niveaux d’activité physique durant la grossesse, particulièrement chez les femmes obèses, et de distinguer les effets spécifiques de différents stimuli d’activité physique (variant en type, volume, intensité et moment de la grossesse) sur la croissance fœtale. Dans ce contexte, nous avons dans un premier temps entrepris une revue systématique de la littérature des études observationnelles portant sur l’association entre l’activité physique maternelle et les paramètres de croissance fœtale mesurés à la naissance. Dans un deuxième temps, 2 études de cohortes évaluant l’impact du type, du volume, de l’intensité et du trimestre de pratique de l’activité physique ont été menées afin de complémenter et d’approfondir les résultats de la revue systématique. Finalement, une étude d’intervention randomisée a été réalisée afin d’évaluer s’il est possible d’améliorer les niveaux d’activité physique durant la grossesse chez les femmes enceintes obèses. Nos travaux ont permis d’illustrer l’influence variable que différents stimuli d’activité physique maternelle peuvent avoir sur l’anthropométrie néonatale. La revue systématique a montré qu’un volume moyen d’activité physique est associé à une augmentation du poids de naissance comparativement à un volume plus faible, alors qu’un volume élevé est associé à une diminution du poids de naissance, comparativement à un volume plus faible. Nos données suggèrent également que l’association entre l’activité physique maternelle et le poids de naissance varie en présence de certaines caractéristiques maternelles. Notamment, nous avons montré pour la première fois que l’activité physique vigoureuse pratiquée en début de grossesse était associée à une diminution importante du poids de naissance chez les femmes qui reçoivent un diagnostic de pré-éclampsie en fin de grossesse. L’importance de l’intensité de l’activité physique dans la relation entre l’activité physique maternelle et la croissance fœtale a également été soulignée pour la première fois dans notre étude de cohorte avec mesure de la composition corporelle néonatale. Contrairement à l’activité physique d’intensité modérée, l’activité physique vigoureuse en début de grossesse est associée à une diminution du poids de naissance, principalement en raison d’une adiposité néonatale réduite. Finalement, les résultats de l’essai randomisé ont permis d’établir la faisabilité d’une intervention d’activité physique supervisée visant à augmenter la pratique d’activité physique chez des femmes enceintes obèses et le potentiel d’une telle intervention à favoriser le maintien de la condition physique et une meilleure gestion du gain de poids chez ces femmes. L’ensemble de ces résultats permet de mieux cerner l’impact de l’activité physique maternelle sur la croissance fœtale, en fonction des caractéristiques spécifiques du stimulus d’activité physique mais également de la population étudiée. La faisabilité d’une intervention d’activité physique prénatale dans une population de femmes obèses laisse entrevoir de nouvelles possibilités dans la prévention de l’obésité infantile et de ses complications. L’identification d’une dose optimale d’activité physique favorisant la santé de l’enfant à court et à long terme dans diverses populations de femmes enceintes et l’identification des facteurs permettant une meilleure adhérence aux recommandations qui en découleront constituent des pistes de recherche essentielles à la lutte contre l’obésité.
Resumo:
Cette étude qualitative visait à décrire l’expérience de mères québécoises vivant une grossesse à risque élevé dans le contexte d’une hospitalisation prolongée avec alitement et leur appréciation des soins reçus, deux aspects peu étudiés jusqu’à maintenant. Des entrevues individuelles semi-dirigées ont été effectuées auprès de huit mères hospitalisées et alitées depuis 30 jours en moyenne. Un devis qualitatif d’inspiration phénoménologique (Giorgi 1997, 2009) a été utilisé pour l’analyse des données, d’où a émergé 24 sous-thèmes, sept thèmes et deux énoncés descriptifs. Les résultats de recherche mettent en évidence la réalité évolutive et complexe des mères dans laquelle elles rapportent : 1) Passer du choc à l’ennui, du chaos à la réorganisation et de l’incompréhension à la compréhension ; 2) Avoir une nouvelle vie remplie de contraintes, de difficultés et de craintes ; 3) Vivre essentiellement des émotions négatives ; 4) Être orientée vers le futur tout en persévérant dans le présent. Les mères qualifient les soins prénataux reçus de techniques routinières, peu nombreuses et faciles à exécuter. Ils comportent deux principales lacunes : les oublis occasionnels et l’absence d’activités prénatales éducatives. Le manque de régularité et de constance dans l’assignation des infirmières aux mères hospitalisées est aussi relevé. Toutefois, à travers ces lacunes, les participantes soulignent les grandes forces du personnel soignant : l’humanisme, la gentillesse et la compétence. Les résultats de cette étude offrent une description approfondie de l’expérience subjective de huit mères, laquelle permet de perfectionner les connaissances des professionnels de la santé et de les sensibiliser davantage à ce vécu. Ces retombées peuvent contribuer à humaniser et à améliorer les soins périnataux actuels.