985 resultados para modèle autorégressif


Relevância:

10.00% 10.00%

Publicador:

Resumo:

« La grande majorité des accidents demeure liée aux comportements dangereux des usagers de la route ». Cet énoncé, lapidaire, fait aujourd’hui figure d’évidence au sein de la communauté des intervenants en sécurité routière. Il repose pourtant sur des prémisses discutables. Le problème le plus fondamental réside dans le fait que la recherche des dernières décennies s’est presque toute entière vouée à l’analyse des seuls aspects défaillants de la conduite (l’accident, les infractions, les erreurs et les fautes de conduite, les conducteurs à risque ou dysfonctionnels, les attitudes et traits de caractère incitant à la conduite dangereuse, etc.). Ce faisant, on a fini par oublier qu’il nous restait encore beaucoup de choses à apprendre sur le fonctionnement usuel de la conduite automobile. Comment, en effet, peut-on escompter élucider tous les rouages de la dynamique accidentelle sans avoir au préalable cerné, et bien compris, les mécanismes de la conduite « ordinaire » ? Comment peut-on parvenir à approfondir notre compréhension des comportements de conduite si l’on fait totalement abstraction de toutes les activités courantes, « normales », auxquelles se livrent les conducteurs lorsqu’ils sont au volant de leur véhicule ? C’est dans la perspective de mieux comprendre les comportements de conduite, dans leur complexité et dans leur diversité, que la présente thèse a été réalisée. Y a plus spécifiquement été examinée la question des habitudes en raison de leur prédominance dans l’activité de la conduite, mais également en raison de leur résistance, des obstacles bien concrets qu’elles sont susceptibles d’opposer à tous ceux qui tentent de modifier les comportements individuels de conduite. Des entrevues en profondeur, menées auprès de trente conducteurs et conductrices âgé(e)s de 17 à 54 ans, devaient permettre de répondre, entre autres, aux questions suivantes : De quoi sont constituées les différentes habitudes en matière de conduite automobile ? Quelle place occupent-elles dans la conduite des individus ? En quoi constituent-elles un frein au changement, à la modification des pratiques adoptées ? Quelles sont les dimensions qui participent à leur installation ? Les résultats de l’analyse ont permis de jeter les bases d’un modèle des comportements de conduite où les sensations corporelles se voient conférer un rôle des plus centraux, et où l’habitude – bien davantage caractérisée par la notion de confort que par celles d’automatisme ou de répétition – concourt non seulement à la pérennité, mais également à la régulation des conduites adoptées sur la route.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’observance, qui décrit à quel degré le patient suit la prescription, est un facteur essentiel pour que le traitement réussisse. Les observances des patients varient beaucoup et l’efficacité du médicament varie parallèlement. Par conséquent, il faut avoir des paramètres sensibles et fiables pour mesurer l’observance. Dans la littérature, on trouve beaucoup de paramètres pour évaluer l’observance mais leurs avantages, limites et inconvénients, en ce qui concerne l’évaluation de l’impact de l’observance sur les effets des médicaments n’ont pas encore été étudiés en profondeur. L’évaluation de ces paramètres nécessite de les tester dans différentes situations. Comme les données disponibles sur l’observance ne concernent pas un ensemble exhaustif de situations, le recours à la simulation, en s’inspirant des cas réels ou plausibles, est très pertinent. On a ainsi réussi à développer un modèle dont les paramètres sont simples et compréhensibles et qui est pratique et flexible pour simuler les différents cas et même les cas extrêmes de l’observance. On a proposé de nouveaux paramètres pour mesurer l’impact biopharmaceutique de l’observance. Ensuite, on a comparé la performance, en termes de sensibilité et la fiabilité, des paramètres proposés et celles de paramètres déjà utilisés. En conclusion, on peut souligner qu’il n’y a pas de paramètre parfait étant donné que chacun a ses propres limites. Par exemple, pour les médicaments dont les effets sont directement liés aux leurs concentrations plasmatiques, le pourcentage des doses prises, qui est le paramètre le plus utilisé, offre la pire performance; par contre, le pourcentage des doses correctes nettes qui est un nouveau paramètre possède une bonne performance et des avantages prometteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les transformations économiques visant la création d’un marché mondial unique, le progrès technologique et la disponibilité d’une main-d’œuvre qualifiée dans les pays à bas salaire amènent les dirigeants des entreprises à réexaminer l’organisation et la localisation de leurs capacités productives de façon à en accroître la flexibilité qui est, selon plusieurs, seule garante de la pérennité de l’organisation (Atkinson, 1987; Patry, 1994; Purcell et Purcell, 1998; Kennedy 2002; Kallaberg, Reynolds, Marsden, 2003; Berger, 2006). Une stratégie déployée par les entreprises pour parvenir à cette fin est la délocalisation (Kennedy, 2002; Amiti et Wei, 2004; Barthélemy, 2004; Trudeau et Martin, 2006; Olsen, 2006). La technologie, l’ouverture des marchés et l’accès à des bassins nouveaux de main-d’œuvre qualifiée rendent possible une fragmentation de la chaîne de production bien plus grande qu’auparavant, et chaque maillon de cette chaîne fait l’objet d’un choix de localisation optimale (Hertveldt et al., 2005). Dans ces conditions, toutes les activités qui ne requièrent aucune interaction complexe ou physique entre collègues ou entre un employé et un client, sont sujettes à être transférées chez un sous-traitant, ici ou à l’étranger (Farrell, 2005). La plupart des recherches traitant de l’impartition et des délocalisations se concentrent essentiellement sur les motivations patronales d’y recourir (Lauzon-Duguay, 2005) ou encore sur les cas de réussites ou d’échecs des entreprises ayant implanté une stratégie de cette nature (Logan, Faught et Ganster, 2004). Toutefois, les impacts sur les employés de telles pratiques ont rarement été considérés systématiquement dans les recherches (Benson, 1998; Kessler, Coyle-Shapiro et Purcell, 1999; Logan et al., 2004). Les aspects humains doivent pourtant être considérés sérieusement, car ils sont à même d’être une cause d’échec ou de réussite de ces processus. La gestion des facteurs humains entourant le processus de délocalisation semble jouer un rôle dans l’impact de l’impartition sur les employés. Ainsi, selon Kessler et al. (1999), la façon dont les employés perçoivent la délocalisation serait influencée par trois facteurs : la manière dont ils étaient gérés par leur ancien employeur (context), ce que leur offre leur nouvel employeur (pull factor) et la façon dont ils sont traités suite au transfert (landing). La recherche vise à comprendre l’impact de la délocalisation d’activités d’une entreprise sur les employés ayant été transférés au fournisseur. De façon plus précise, nous souhaitons comprendre les effets que peut entraîner la délocalisation d’une entreprise « source » (celle qui cède les activités et les employés) à une entreprise « destination » (celle qui reprend les activités cédées et la main-d’œuvre) sur les employés transférés lors de ce processus au niveau de leur qualité de vie au travail et de leurs conditions de travail. Plusieurs questions se posent. Qu’est-ce qu’un transfert réussi du point de vue des employés? Les conditions de travail ou la qualité de vie au travail sont-elles affectées? À quel point les aspects humains influencent-t-ils les effets de la délocalisation sur les employés? Comment gérer un tel transfert de façon optimale du point de vue du nouvel employeur? Le modèle d’analyse est composé de quatre variables. La première variable dépendante (VD1) de notre modèle correspond à la qualité de vie au travail des employés transférés. La seconde variable dépendante (VD2) correspond aux conditions de travail des employés transférés. La troisième variable, la variable indépendante (VI) renvoie à la délocalisation d’activités qui comporte deux dimensions soit (1) la décision de délocalisation et (2) le processus d’implantation. La quatrième variable, la variable modératrice (VM) est les aspects humains qui sont examinés selon trois dimensions soit (1) le contexte dans l’entreprise « source » (Context), (2) l’attrait du nouvel employeur (pull factor) et (3) la réalité chez le nouvel employeur (landing). Trois hypothèses de recherche découlent de notre modèle d’analyse. Les deux premières sont à l’effet que la délocalisation entraîne une détérioration de la qualité de vie au travail (H1) et des conditions de travail (H2). La troisième hypothèse énonce que les aspects humains ont un effet modérateur sur l’impact de la délocalisation sur les employés transférés (H3). La recherche consiste en une étude de cas auprès d’une institution financière (entreprise « source ») qui a délocalisé ses activités technologiques à une firme experte en technologies de l’information (entreprise « destination »). Onze entrevues semi-dirigées ont été réalisées avec des acteurs-clés (employés transférés et gestionnaires des deux entreprises). Les résultats de la recherche indiquent que la délocalisation a de façon générale un impact négatif sur les employés transférés. Par contre, cette affirmation n’est pas généralisable à tous les indicateurs étudiés de la qualité de vie au travail et des conditions de travail. Les résultats mettent en évidence des conséquences négatives en ce qui a trait à la motivation intrinsèque au travail, à l’engagement organisationnel ainsi qu’à la satisfaction en lien avec l’aspect relationnel du travail. La délocalisation a également entraîné une détérioration des conditions de travail des employés transférés soit au niveau de la sécurité d’emploi, du contenu et de l’évaluation des tâches, de la santé et sécurité au travail et de la durée du travail. Mais, d’après les propos des personnes interviewées, les conséquences les plus importantes sont sans aucun doute au niveau du salaire et des avantages sociaux. Les conséquences de la délocalisation s’avèrent par contre positives lorsqu’il est question de l’accomplissement professionnel et de la satisfaction de l’aspect technique du travail. Au niveau de la confiance interpersonnelle au travail, l’organisation du travail, la formation professionnelle ainsi que les conditions physiques de l’emploi, les effets ne semblent pas significatifs d’après les propos recueillis lors des entrevues. Enfin, les résultats mettent en évidence l’effet modérateur significatif des aspects humains sur les conséquences de la délocalisation pour les employés transférés. L’entreprise « source » a tenté d’amoindrir l’impact de la délocalisation, mais ce ne fut pas suffisant. Comme les employés étaient fortement attachés à l’entreprise « source » et qu’ils ne désiraient pas la quitter pour une entreprise avec une culture d’entreprise différente qui leur paraissait peu attrayante, ces dimensions des aspects humains ont en fait contribué à amplifier les impacts négatifs de la délocalisation, particulièrement sur la qualité de vie au travail des employés transférés. Mots clés : (1) délocalisation, (2) impartition, (3) transfert d’employés, (4) qualité de vie au travail, (5) conditions de travail, (6) technologies de l’information, (7) entreprise, (8) gestion des ressources humaines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les récepteurs couplés aux protéines-G (RCPGs) constituent la première étape d’une série de cascades signalétiques menant à la régulation d’une multitude de processus physiologiques. Dans le modèle classique connu, la liaison du ligand induit un changement de conformation du récepteur qui mène à sa forme active. Une fois activés, les RCPGs vont réguler l’activité d’une protéine membranaire cible qui peut être tant une enzyme qu’un canal ionique. L’interaction entre le récepteur et la cible nécessite l’intermédiaire d’une protéine hétérotrimérique appelée « protéine G », qui est activée pour favoriser l’échange du GDP (guanosine diphosphate) pour un GTP (guanosine triphosphate) et assurer la transduction du signal du récepteur à l’effecteur. Les mécanismes moléculaires menant à l’activation des effecteurs spécifiques via l’activation des RCPGs par les protéines G hétérotrimériques sont encore plutôt méconnus. Dans notre étude nous nous sommes intéressés aux récepteurs FP et PAF, à leurs ligands naturels, la PGF2α et le Carbamyl-PAF respectivement, et à des ligands à action antagoniste sur ces récepteurs. Des ligands considérés comme agonistes, sont des molécules qui interagissent avec le récepteur et induisent les mêmes effets que le ligand naturel. Les antagonistes, par contre, sont des molécules qui interagissent avec le récepteur et bloquent l’action du ligand naturel en prévenant le changement conformationnel du complexe, et ils peuvent avoir une action compétitive ou non-compétitive. Nous avons étudié aussi des ligands orthostériques et allostériques du récepteur FP des prostaglandines et du récepteur PAF. Un ligand orthostérique peut se comporter comme agoniste ou antagoniste en se fixant au site de liaison du ligand (agoniste) naturel. Un ligand allostérique est un agoniste ou antagoniste se fixant à un site autre que celui du ligand naturel entraînant un changement de conformation ayant pour conséquence soit une augmentation (effecteur positif), soit une diminution (effecteur négatif) de l'activité du ligand naturel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cellules dérivées de la moelle osseuse, principalement les cellules endothéliales progénitrices, sont réduites chez les patients souffrant de maladies cardiovasculaires. Leur mobilisation et leur incorporation aux sites de lésion vasculaire sont des évènements prépondérants dans l’accélération des processus de réendothélialisation. Dans un modèle murin, le 17β-estradiol favorise les processus de guérison vasculaire par la mobilisation et le recrutement des cellules endothéliales progénitrices dérivées de la moelle osseuse. Il existe présentement plusieurs stratégies afin d’augmenter la mobilisation des cellules progénitrices ainsi que leur incorporation à la paroi vasculaire. Cependant, peu d’études privilégient la livraison locale d’un nombre élevé de cellules progénitrices fonctionnelles par un véhicule biodégradable et leur maintien au site de lésion afin de favoriser la réendothélialisation ciblée. Un polymère d’intérêt pour cette application s’avère être le chitosan. Ce biopolymère non toxique et biodégradable est couramment utilisé dans l’ingénierie tissulaire et, depuis peu, est utilisé dans la guérison vasculaire. Le chitosan complexé à la phosphorylcholine voit sa solubilité s’accroître dans les solutions aqueuses ainsi que sa biocompatibilité cellulaire en condition physiologique. Le projet de ce mémoire visait donc : 1) à étudier in vitro, la capacité d’un polymère de chitosan complexé à la phosphorylcholine à influencer l’adhésion, la survie, la différenciation et la fonctionnalité cellulaire dans un modèle murin de culture mixte de cellules dérivées de la moelle osseuse et 2) de déterminer l’impact de la présence du 17β-estradiol sur ces mêmes comportements cellulaires. Nos travaux démontrent que la matrice de chitosan-phosphorylcholine s’avère compatible avec notre modèle de culture cellulaire. En effet, ce polymère est capable de promouvoir l’organisation et le développement des cellules dérivées de la moelle osseuse de façon comparable à la matrice normalement utilisée dans la croissance in vitro des cellules endothéliales progénitrices, la fibronectine. De plus, ce polymère n’a nullement compromis l’activité migratoire des cellules, laissant supposer qu’il pourrait éventuellement être un véhicule approprié pour effectuer une livraison cellulaire à un site de lésion. Il s’avère que le 17β-estradiol, lorsqu’ajouté au milieu de culture ou complexé au polymère de chitosan phosphorylcholine, est capable de moduler le comportement cellulaire, et ce, de façon différente. Le 17β-estradiol complexé au polymère de chitosan-phosphorylcholine démontre, par rapport à sa forme soluble, une plus grande aptitude à accroître le nombre de cellules hématopoïétiques ainsi que des cellules endothéliales progénitrices dérivées de la moelle osseuse in vitro. De plus, le 17β-estradiol complexé au polymère de chitosan-phosphorylcholine permet une amplification marquée des cellules endothéliales progénitrices et leur offre un support adéquat afin de favoriser la guérison vasculaire. L’ensemble de nos travaux suggère que le polymère de chitosan complexé à la phosphorylcholine en présence ou non de 17β-estradiol est une matrice compatible avec les cellules progénitrices dérivées de la moelle osseuse in vitro. Le 17β-estradiol complexé au polymère est toutefois plus efficace que sa forme soluble à promouvoir l’amplification du nombre de cellules progénitrices. Ce polymère représente un outil thérapeutique attrayant et une matrice de livraison d’agent bioactif prometteuse pour le recrutement cellulaire dans l’accélération de la guérison vasculaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse rapporte l’étude des propriétés physicochimiques des nanoparticles polymériques et leur impact sur l’interaction avec les cellules vivantes. Nous nous sommes tout spécialement attachés à étudier l’effet des propriétés adhésives et mécaniques des nanoparticules sur leur capacité de pénétration de la membrane cellulaire. Pour ce faire, nous avons tout d’abord utilisé des nanoparticules d’acide polylactique (PLA) fonctionnalisées en surface avec un ligand des sélectines E et P. Le greffage du ligand sur la particule s’est fait par une nouvelle méthode expérimentale garantissant la présence du ligand à la surface de la particule durant toute sa durée de vie. Cette méthode consiste à mélanger un polymère fonctionnalisé avec le ligand avec un autre polymère non fonctionnalisé. La présence du ligand à la surface des nanoparticules formées à partir de ce mélange de polymères a été confirmée par analyse ToF SIMS. Nous avons pu prouver que les particules possédant le ligand greffé à leur surface démontraient une capacité adhésive supérieure à leurs homologues non fonctionnalisés sur des cellules endothéliales HUVEC activées par différentes drogues. De plus, le captage des particules par les cellules HUVEC est modulé par le niveau d’expression des récepteurs selectine E et P et aussi par la quantité de ligand libre. Ces résultats montrent clairement que le greffage du ligand confère aux particules des propriétés adhésives accrues et spécifiques ce qui permet leur usage postérieure comme vecteur pharmaceutique capable de cibler un récepteur particulier à la surface d’une cellule. Nous avons aussi démontré que l’interaction entre les nanoparticules et la membrane cellulaire peut aussi être contrôlée aussi bien par les propriétés mécaniques de la cellule que de la nanoparticule. Dans une première étape, nous avons mesuré à l’aide de l’appareil de forces de surface l’élasticité de cellules macrophagiques déposées sur différents substrats. En contrôlant l’interaction entre la cellule et le substrat sur lequel elle repose nous avons montré qu’il était possible de modifier à ii volonté les propriétés mécaniques cellulaire. Une augmentation de l’élasticité cellulaire s’accompagne d’une augmentation systématique de l’internalisation de nanoparticules de PLA non fonctionnalisées. Ceci suggère un rôle prépondérant des propriétés mécaniques du cortex cellulaire dans le captage des nanoparticules de PLA. Dans une seconde étape, nous avons étudié l’effet des propriétés mécaniques des nanoparticules sur leur capacité de pénétration cellulaire. Pour ce faire, nous avons synthétisé des particules d’hydrogel dont l’élasticité était contrôlée par le degré d’agent réticulant inclus dans leur formulation. Le contrôle des propriétés mécaniques des nanoparticules a été confirmé par la mesure du module de Young des particules par microscopie de force atomique. L’impact des propriétés mécaniques de ces particules sur leur capacité de pénétration dans les cellules vivantes a été étudié sur des cellules macrophagiques de souris. Les résultats ont montré que la cinétique d’internalisation, la quantité de particules internalisées et le mécanisme d’internalisation dépendent tous du module de Young des nanoparticules. Aucune différence dans le trajet intracellulaire des particules n’a pu être observée malgré le fait que différentes voies d’internalisation aient été observées. Ce dernier résultat peut s’expliquer par le fait que les nanoparticules sont internalisées par plusieurs voie simultanément ce qui facilite leur accumulation dans les organelles digestives intracellulaires. Un modèle simple permettant d’expliquer ces résultats a été proposé et discuté.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’insuffisance cardiaque (IC), une maladie chronique caractérisée par un mauvais fonctionnement du muscle cardiaque, entraîne des symptômes comme l’essoufflement, l’œdème et la fatigue. L’IC nécessite l’adoption de comportements d’auto-soins pour prévenir les épisodes de décompensation. Le but de cette recherche est d’évaluer l’intervention infirmière motivationnelle selon les stades de changements (MSSC) sur les comportements d’auto-soins chez des patients IC. Afin de guider l’intervention MSSC, la théorie spécifique aux auto-soins chez les patients IC de Riegel et Dickson (2008) a été retenue ainsi que le modèle d’intervention de Bédard et al. (2006) combinant le modèle transthéorique (Prochaska & DiClemente, 1984) et l’entrevue motivationnelle (Miller & Rollnick, 2006). Il s’agit d’un devis expérimental randomisé (pré et post-test) avec groupe contrôle (N = 15/groupe). Les patients du groupe contrôle ont reçu les soins usuels et les patients du groupe intervention (GI) ont reçu l’intervention MSSC durant trois entretiens. Les mesures de résultats ont été collectées à un mois suite à la randomisation par une assistante de recherche aveugle à la randomisation. L’effet de l’intervention a été évalué par des analyses de covariance sur cinq mesures de résultats : la réalisation et la gestion (générale et spécifique à l’IC) des auto-soins, la confiance aux auto-soins (générale et spécifique à l’IC) et la conviction. L’acceptabilité et la faisabilité ont été évaluées. Les résultats indiquent un effet significatif sur la mesure de confiance à effectuer les auto-soins spécifiques à l’IC. La majorité des participants du GI ont progressé dans leurs stades de changement. Ces résultats soulignent le potentiel de cette approche pour favoriser l’adoption des auto-soins mais une étude à plus large échelle est proposée afin d’évaluer l’effet de cette approche dans un essai clinique randomisé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le thème de la mobilisation totale est au cœur de la réflexion actuelle sur le renouvellement des modes de subjectivation et des manières d’être-ensemble. En arrière-plan, on trouve la question de la compatibilité entre les processus vitaux humains et la modernité, bref, la question de la viabilité du processus de civilisation occidental. Au cœur du diagnostic: l’insuffisance radicale de la fiction de l’homo oeconomicus, modèle de l’individu privé sans liens sociaux et souffrant d’un déficit de sphère. La « communauté qui vient » (Agamben), la « politisation de l’existence » (Lopez Petit) et la création de « sphères régénérées » (Sloterdijk) nomment autant de tentatives pour penser le dépassement de la forme désormais impropre et insensée de l’individualité. Mais comment réaliser ce dépassement? Ou de manière plus précise : quelle traversée pour amener l’individu privé à opérer ce dépassement? Ce doctorat s’organise autour d’une urgence focale : [E]scape. Ce concept suggère un horizon de fuite immanent : il signe une sortie hors de l’individu privé et trace un plan d’idéalité permettant d’effectuer cette sortie. Concrètement, ce concept commande la production d’une série d’analyses théoriques et artistiques portant sur des penseurs contemporains tels que Foucault, Deleuze ou Sloterdijk, l’album Kid A de Radiohead ainsi que sur le cinéma et l’art contemporain chinois (Jia Zhangke, Wong Kar-Wai, Wong Xiaoshuai, Lou Ye, Shu Yong, Huang Rui, Zhang Huan, Zhu Yu, etc.). Ces analyses sont conçues comme autant de passages ou itinéraires de désubjectivation. Elles posent toutes, d’une manière ou d’une autre, le problème du commun et de l’être-ensemble, sur le seuil des non-lieux du capitalisme global. Ces itinéraires se veulent liminaux, c’est-à-dire qu’ils se constituent comme passages sur la ligne d’un dehors et impliquent une mise en jeu éthopoïétique. Sur le plan conceptuel, ils marquent résolument une distance avec le paradigme de la politique identitaire et la critique des représentations interculturelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, les statistiques indiquent une croissance exponentielle de l’incidence de certaines infections transmissibles sexuellement chez les jeunes adultes. Certaines enquêtes témoignent en outre des comportements peu responsables en matière de santé sexuelle chez cette population, bien que l’offre d’information sur les conséquences de tels comportements soit importante et diversifiée. Par ailleurs, le comportement informationnel de cette population en matière de santé sexuelle demeure peu documenté. La présente étude porte sur le comportement informationnel de jeunes adultes québécois en matière de santé sexuelle. Plus spécifiquement, elle répond aux quatre questions de recherche suivantes : (1) Quelles sont les situations problématiques auxquelles les jeunes adultes sont confrontés en santé sexuelle?, (2) Quels sont les besoins informationnels exprimés par les jeunes adultes lors de ces situations problématiques?, (3) Quels sont les processus et les sources d’information qui soutiennent la résolution de ces besoins informationnels? et (4) Quelle est l’utilisation de l’information trouvée? Cette recherche descriptive a utilisé une approche qualitative. Le milieu retenu est l’Université de Montréal pour deux raisons : il s’agit d’un milieu cognitivement riche qui fournit un accès sur place à des ressources en santé sexuelle. Les huit jeunes adultes âgés de 18 à 25 ans qui ont pris part à cette étude ont participé à une entrevue en profondeur utilisant la technique de l’incident critique. Chacun d’entre eux a décrit une situation problématique par rapport à sa santé sexuelle et les données recueillies ont été l’objet d’une analyse de contenu basée sur la théorisation ancrée. Les résultats indiquent que les jeunes adultes québécois vivent des situations problématiques relatives à l’aspect physique de leur santé sexuelle qui peuvent être déclenchées par trois types d’éléments : un événement à risques, un symptôme physique subjectif et de l’information acquise passivement. Ces situations problématiques génèrent trois catégories de besoins informationnels : l’état de santé actuel, les conséquences possibles et les remèdes. Pour répondre à ces besoins, les participants se sont tournés en majorité vers des sources professionnelles, personnelles et verbales. La présence de facteurs contextuels, cognitifs et affectifs a particularisé leur processus de recherche d’information en modifiant les combinaisons des quatre activités effectuées, soit débuter, enchaîner, butiner et différencier. L’automotivation et la compréhension du problème représentent les deux principales utilisations de l’information. D’un point de vue théorique, les résultats indiquent que le modèle général de comportement informationnel de Choo (2006), le modèle d’environnement d’utilisation de l’information de Taylor (1986, 1991) et le modèle d’activités de recherche d’information d’Ellis (1989a, 1989b, 2005) peuvent être utilisés dans le contexte personnel de la santé sexuelle. D’un point de vue pratique, cette étude ajoute aux connaissances sur les critères de sélection des sources d’information en matière de santé sexuelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche s’intéresse au concept de la GRH à la carte et à son influence sur l’intention de départ des salariés. Pour ce faire, nous avons dû définir les différentes composantes qui entourent notre concept principal, nous faisons référence aux espaces de choix relatifs à l’organisation et à l’aménagement du temps de travail, aux espaces de choix relatifs à la rémunération, à la formation, etc. Dans leur description, ces pratiques qu’on trouve au coeur du concept de la GRH à la carte nous permettent de prendre conscience que la gestion des ressources humaines connaît une nouvelle facette. Celle-ci s’explique principalement par le souci des entreprises d’aujourd’hui de se rapprocher des attentes de leurs salariés, en leur offrant un certain nombre d’espaces de choix dans leur emploi. Les gestionnaires des ressources humaines parlent alors de personnalisation des pratiques des RH, ce qui exige une certaine flexibilité de la part des organisations. Ainsi, l’élaboration de notre étude nous a permis de présenter un modèle théorique dont l’objectif est de tester l’influence de la flexibilité des différents espaces de choix de la GRH à la carte sur l’intention de départ souvent manifestée par les salariés. Les résultats obtenus à l’aide de l’analyse multivariée appliquée à des données d’une institution bancaire haïtienne mettent en évidence l’impact significatif de certaines pratiques et le rôle médiateur du sentiment d’autodétermination dans la décision des salariés. Mots clés : Intention de départ volontaire, flexibilité des pratiques de la GRH à la carte, sentiment d’auto-détermination

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, I argue that intersectionality, the prevailing way of conceptualizing the relation between axes or systems of oppression (race, class, gender), illicitly imports the very model it purports to overcome: that is, the unitary model of identity. I first define “intersectionality” and distinguish between three senses that are frequently conflated. Then I subject the model to an analytic critique, revealing its hidden presuppositions about identity. Finally, I suggest that solidarity serves as a better norm for feminist practice than inclusion of “difference,” which seems to be the norm underlying many intersectional accounts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Given the fact of moral disagreement, theories of state neutrality which rely on moral premises will have limited application, in that they will fail to motivate anyone who rejects the moral premises on which they are based. By contrast, contractarian theories can be consistent with moral scepticism, and can therefore avoid this limitation. In this paper, I construct a contractarian model which I claim is sceptically consistent and includes a principle of state neutrality as a necessary condition. The principle of neutrality which I derive incorporates two conceptions of neutrality (consequential neutrality and justificatory neutrality) which have usually been thought of as distinct and incompatible. I argue that contractarianism gives us a unified account of these conceptions. Ultimately, the conclusion that neutrality can be derived without violating the constraint established by moral scepticism turns out to rely on an assumption of equal precontractual bargaining power. I do not attempt to defend this assumption here. If the assumption cannot be defended in a sceptically consistent fashion, then the argument for neutrality given here is claimed to be morally minimal, rather than fully consistent with moral scepticism.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comprend une bibliographie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.