986 resultados para chaîne de valeur forestière
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Lors du transport du bois de la forêt vers les usines, de nombreux événements imprévus peuvent se produire, événements qui perturbent les trajets prévus (par exemple, en raison des conditions météo, des feux de forêt, de la présence de nouveaux chargements, etc.). Lorsque de tels événements ne sont connus que durant un trajet, le camion qui accomplit ce trajet doit être détourné vers un chemin alternatif. En l’absence d’informations sur un tel chemin, le chauffeur du camion est susceptible de choisir un chemin alternatif inutilement long ou pire, qui est lui-même "fermé" suite à un événement imprévu. Il est donc essentiel de fournir aux chauffeurs des informations en temps réel, en particulier des suggestions de chemins alternatifs lorsqu’une route prévue s’avère impraticable. Les possibilités de recours en cas d’imprévus dépendent des caractéristiques de la chaîne logistique étudiée comme la présence de camions auto-chargeurs et la politique de gestion du transport. Nous présentons trois articles traitant de contextes d’application différents ainsi que des modèles et des méthodes de résolution adaptés à chacun des contextes. Dans le premier article, les chauffeurs de camion disposent de l’ensemble du plan hebdomadaire de la semaine en cours. Dans ce contexte, tous les efforts doivent être faits pour minimiser les changements apportés au plan initial. Bien que la flotte de camions soit homogène, il y a un ordre de priorité des chauffeurs. Les plus prioritaires obtiennent les volumes de travail les plus importants. Minimiser les changements dans leurs plans est également une priorité. Étant donné que les conséquences des événements imprévus sur le plan de transport sont essentiellement des annulations et/ou des retards de certains voyages, l’approche proposée traite d’abord l’annulation et le retard d’un seul voyage, puis elle est généralisée pour traiter des événements plus complexes. Dans cette ap- proche, nous essayons de re-planifier les voyages impactés durant la même semaine de telle sorte qu’une chargeuse soit libre au moment de l’arrivée du camion à la fois au site forestier et à l’usine. De cette façon, les voyages des autres camions ne seront pas mo- difiés. Cette approche fournit aux répartiteurs des plans alternatifs en quelques secondes. De meilleures solutions pourraient être obtenues si le répartiteur était autorisé à apporter plus de modifications au plan initial. Dans le second article, nous considérons un contexte où un seul voyage à la fois est communiqué aux chauffeurs. Le répartiteur attend jusqu’à ce que le chauffeur termine son voyage avant de lui révéler le prochain voyage. Ce contexte est plus souple et offre plus de possibilités de recours en cas d’imprévus. En plus, le problème hebdomadaire peut être divisé en des problèmes quotidiens, puisque la demande est quotidienne et les usines sont ouvertes pendant des périodes limitées durant la journée. Nous utilisons un modèle de programmation mathématique basé sur un réseau espace-temps pour réagir aux perturbations. Bien que ces dernières puissent avoir des effets différents sur le plan de transport initial, une caractéristique clé du modèle proposé est qu’il reste valable pour traiter tous les imprévus, quelle que soit leur nature. En effet, l’impact de ces événements est capturé dans le réseau espace-temps et dans les paramètres d’entrée plutôt que dans le modèle lui-même. Le modèle est résolu pour la journée en cours chaque fois qu’un événement imprévu est révélé. Dans le dernier article, la flotte de camions est hétérogène, comprenant des camions avec des chargeuses à bord. La configuration des routes de ces camions est différente de celle des camions réguliers, car ils ne doivent pas être synchronisés avec les chargeuses. Nous utilisons un modèle mathématique où les colonnes peuvent être facilement et naturellement interprétées comme des itinéraires de camions. Nous résolvons ce modèle en utilisant la génération de colonnes. Dans un premier temps, nous relaxons l’intégralité des variables de décision et nous considérons seulement un sous-ensemble des itinéraires réalisables. Les itinéraires avec un potentiel d’amélioration de la solution courante sont ajoutés au modèle de manière itérative. Un réseau espace-temps est utilisé à la fois pour représenter les impacts des événements imprévus et pour générer ces itinéraires. La solution obtenue est généralement fractionnaire et un algorithme de branch-and-price est utilisé pour trouver des solutions entières. Plusieurs scénarios de perturbation ont été développés pour tester l’approche proposée sur des études de cas provenant de l’industrie forestière canadienne et les résultats numériques sont présentés pour les trois contextes.
Resumo:
Le cancer de la vessie est le 5e plus répandu au Canada. Les tumeurs vésicales non-infiltrant le muscle (TVNIM) représentent 70-75% des tumeurs au premier diagnostic. Après une résection transurétrale de tumeur de vessie (RTUTV), 60-70 % des patients souffriront de récidive et 10-20 % de progression vers l’infiltration du muscle (TVIM). Présentement, l’évaluation du risque de récidive ou de progression pour sélectionner le traitement approprié est basée sur les caractéristiques cliniques et pathologiques. La gestion des TVNIM à haut risque est l’un des aspects les plus difficiles à gérer pour un uro-oncologue et il est bien connu que l’issue clinique peut varier significativement entre des patients ayant une tumeur de même stade. Il serait donc important de détecter les tumeurs les plus susceptibles de récidiver et de progresser pour ajuster le traitement en conséquence. L’objectif de mon projet était d’analyser la valeur pronostique du contexte immunologique des TVNIM pour prédire leurs probabilités de récidive ou de progression vers l’infiltration du muscle. Mon premier volet consistait à évaluer la valeur pronostique de l’infiltration des cellules immunes, telles que les cellules dendritiques infiltrant les tumeurs (TIDC), les cellules T infiltrant les tumeurs (TIL) et les macrophages associés aux tumeurs (TAM) dans une cohorte de 106 TVNIM initiales. Les données d’infiltration des TIDC et des TIL dans les TVNIM démontrent leur importance dans l’évolution des patients atteints du cancer de la vessie et pourraient aider à identifier les TVNIM à haut risque. Mon deuxième volet consistait à caractériser un profil d’expression génique associé aux immunités innée et adaptative dans une série de 22 TVNIM. Cependant, le faible nombre de tumeurs disponibles a empêché d’obtenir une conclusion. Notre étude a permis de confirmer que la composition et le phénotype des cellules immunes infiltrant les TVNIM ont un impact sur l’évolution de ces tumeurs.
Resumo:
Le lessivage des nitrates, la contamination de la nappe phréatique et l’eutrophisation des cours d’eau figurent parmi les enjeux planétaires qui affectent la durabilité de l’agriculture et des ressources naturelles. Ce mémoire présente le développement d’une première génération d’un nouveau senseur électrochimique pour le dosage de précisions des nitrates. Celui-ci est basé sur la spectroscopie d’impédance électrochimique d’une membrane polymérique sélective aux ions. Grâce à cette approche, un senseur compact et abordable a été produit. Par son utilisation en solutions aqueuses et en substrats de croissance saturés, il a été montré que le senseur permettait de quantifier des ajouts contrôlés de nitrates allant de 0,6 ppm à 60 ppm. La mise en application en substrat de croissance a pu être étudiée en comparaison avec des méthodes certifiées ISO 17025 visant l’analyse de ces substrats. Le senseur a aussi montré une grande versatilité par son utilisation sur divers appareils de mesure d’impédance. En plus, il a démontré une stabilité possible suite à une implantation d’un mois directement en substrat de croissance sous les variables environnementales d’une pépinière forestière. Par l’étude du spectre d’impédance du senseur en solutions pures de différentes concentrations, il a aussi été possible de proposer le circuit électrique équivalent du système, qui met en évidence deux parcours compétitifs du courant, un au coeur de la membrane et un deuxième en solution. Les résultats de ces travaux sont au coeur de deux publications scientifiques dont le manuscrit est inclus à ce mémoire. Pour finir cette étude, des suggestions seront faites pour guider l’amélioration du senseur par le développement d’une deuxième génération de celui-ci.
Resumo:
Ce mémoire s'intéresse à la réception critique de Né à Québec, première œuvre d'Alain Grandbois et aux relectures de ce récit à travers le temps. Cette étude a pour point de départ le paradoxe entre le futur prometteur de l'œuvre que laissait augurer la réception initiale et le rôle bien secondaire que joue désormais Né à Québec dans l'histoire de la littérature québécoise. Le mémoire est divisé en trois chapitres structurés chronologiquement et couvre la réception de l'œuvre de sa publication en 1933 jusqu'à nos jours. Le premier chapitre se penche sur le contexte de réception initial ainsi que sur l'élaboration d'un discours critique dominant sur Né à Québec. Cette partie de l'étude a aussi pour but de rappeler les conclusions de Marcel Fortin sur la réception immédiate de l'œuvre en question telles que décrites dans son ouvrage Histoire d'une célébration, publié il y a maintenant plus de vingt ans. Ce rappel est primordial afin de bien comprendre comment la pensée critique a évolué au-delà de la décennie 1930. À noter que l'analyse présente dans ce mémoire offre une perspective différente que celle de Fortin sur les commentaires de cette période puisqu'elle s'organise autour de concepts théoriques nouveaux, en particulier la notion de stéréotype telle que définie par Jean-Louis Dufays. Les deux autres chapitres traitent de textes critiques sur Né à Québec qui n'ont jamais dans le passé été directement le sujet d'une étude de réception. Tout au long de cette étude, le discours sur l'œuvre de Grandbois est décrit, analysé et comparé afin de comprendre comment ce récit historique en est venu à être aujourd'hui délaissé par le public et les littérateurs du Québec et d'ailleurs.
Resumo:
Les produits forestiers non ligneux (PFNL) rassemblent toutes exploitations sous couvert forestier. Ils excluent les produits issus de la fibre de bois et des produits de la faune. Le bleuet sauvage est un bon exemple de PFNL. Ces produits sont abondants au Québec. Le bleuet est un exemple de PFNL bien établi avec un niveau de commercialisation structurée de produits frais et de transformation. Au contraire, le marché des champignons forestiers tarde à se développer. À titre de produit agroforestier, les PFNL procurent des biens et services bénéfiques aux communautés productrices. La distribution des PFNL varie en fonction de facteurs géophysiques et bioclimatiques. Dans certaines régions du Québec, des groupes s'efforcent de développer des outils d’analyse et de modélisation spatiale conséquents. La géomatique procure des solutions pratiques pour l’identification et le suivi des PFNL. Entre autres, elle opère des données géospatiales spécialisées sur des systèmes d'information géographique (SIG). Ce projet de maîtrise repose sur la mise en place d’un portail participatif d’information géographique web. Il s'adresse à un large panel d’utilisateurs, notamment aux intervenants impliqués dans le développement durable des PFNL. Il offre la possibilité de visualiser et de manipuler des données spécialisées au cas des PFNL. Il propose de localiser les sites à fort potentiel de présence. Il cherche à intégrer des outils de validation de ces sites. Il tend aussi à procurer des outils qui accompagnent la production des utilisateurs. Le portail introduit des applications d’édition, d’analyse et de modélisations spatiales exclusives à la thématique des PFNL. Il abrite des couches de données interactives et interopérables. L'évaluation du portail passe par l’efficacité de ses applications et la convivialité de ses composantes. Ce rapport décrit et fait la démonstration de chacune d'elle.
Resumo:
L’usine Niobec traite un minerai de pyrochlore porteur de niobium pour produire le ferro-niobium utilisé pour la fabrication d’acier. L’usine récupère environ 60% des minéraux de niobium. Les rejets contiennent du niobium et d’autres espèces minérales potentiellement valorisables. Les travaux présentés dans ce mémoire visent à identifier les espèces pouvant être valorisées dans les rejets de Niobec dont les plus prometteurs sont les éléments de terres rares, les minéraux de niobium et l’apatite. Dans le but de concentrer l’apatite des rejets de l’usine, une analyse chimique des rejets a permis de cibler comme flux d’intérêt les particules de dimension supérieure à 0,038mm dans le concentré de carbonates et les rejets du circuit de flottation du pyrochlore. La méthode utilisée pour valoriser les phosphates est la flottation. Les meilleurs résultats ont été obtenus par flottation directe des minéraux de phosphate du concentré de carbonates dans les rejets de Niobec. Le collecteur utilisé est un acide gras de type AERO 6493 avec un mélange d’amidon de tapioca et de NaOH utilisé comme déprimant pour les carbonates. Ces conditions ont permis de produire un concentré d’apatite titrant entre 30 à 32 % P2O5 avec un rendement de 50 à 60% du P2O5 contenue dans le concentré de carbonates. La teneur en MgO dans le concentré d’apatite est comprise entre 3 et 4% comparativement à 15% dans l’alimentation. Puisque le MgO est principalement associé à la dolomie ces résultats confirment une bonne dépression de ce minéral lors de la flottation de l’apatite du concentré de carbonates. La flottation de l’apatite à partir des rejets du pyrochlore n’a pas permis d’obtenir un concentré de valeur commerciale. Le meilleur résultat obtenu lors des essais de flottation sur les rejets pyrochlore correspond à une teneur de 14%avec un rendement de 53% P2O5. Les résultats obtenus montrent toutefois le potentiel associé à la récupération des minéraux de phosphates et justifient la poursuite des travaux, cette fois, moins exploratoires que les travaux rapportés dans ce mémoire.
Resumo:
Cette recherche exploratoire examine le concept émergent de « paysage sous-marin » présenté sous la forme d’une étude cas — celui du jardin des Escoumins — situé dans le parc marin du Saguenay – Saint-Laurent, au Québec. On constate, depuis les dernières décennies, deux complications qui s’interposent au concept de paysage sous-marin puisque d’une part on examine un divorce entre les Québécois et le fleuve Saint-Laurent puis d’une autre on observe l’omission fréquente de sa reconnaissance dans la littérature géographique. En somme, deux questions de recherche en découlent, soit : Quels sont les procédés employés pendant le XXe et XXIe siècle dans la construction des paysages sous-marins au Québec ? et : Quel est le rôle des différents acteurs, et plus précisément celui des plongeurs, dans la mise en valeur et la reconnaissance du paysage sous-marin des Escoumins ? La recherche a été accomplie à travers une revue extensive de la littérature régionale et mondiale portant sur ce concept atypique. Par la suite, une enquête de 35 questions soumises à un échantillon de 73 plongeurs québécois a été analysée, ainsi que sept entrevues semi-dirigées avec des acteurs clefs du domaine. Puis, l’étude et la cartographie des relations spatiales entre les plongeurs et les lieux de prédilection de leur activité ont été réalisés. Les résultats démontrent des interrelations complexes entre les caractéristiques de construction de ces paysages sublimes (le territoire, la nordicité, la pratique d’une activité de loisir, la technologie, l’esthétisme ainsi que l’essor économique et touristique) et les acteurs clefs. Comme la « découverte » des paysages alpins au XVIIIe siècle en Europe, la lente mise en valeur des paysages sous-marins au Québec est causée par la marginalité des lieux. Ainsi, la reconnaissance des paysages subaquatiques est en pleine effervescence au Québec et l’intégration de ce concept en aménagement et en planification touristiques devient capitale.
Resumo:
Cette étude examine l'effet de la révision du chapitre 3480 du Manuel de l'I.C.C.A. relatif aux éléments extraordinaires sur la valeur prédictive du bénéfice avant éléments extraordinaires. Le choix du critère de la valeur prédictive repose sur le fait que l'I.C.C.A. reconnaît qu'il s'agit ici d'une caractéristique essentielle à l'obtention d'une information comptable utile. Ainsi, le resserrement de la définition des éléments extraordinaires par l'ajout d'un troisième critère a contribué à une réduction du nombre de ces éléments dans les états financiers des entreprises canadiennes. En effet, la description de l'échantillon a montré que plusieurs catégories d'éléments extraordinaires considérées avant la révision de la norme canadienne dans la partie non courante de l'état des résultats sont déplacées, par l'effet de la révision, à la partie courante de cet état. L'examen des éléments inhabituels après la révision a permis de retrouver la majorité des éléments qui auraient pus être qualifiés d'extraordinaires si on avait appliqué l'ancienne définition. Les éléments qui ne satisfont pas les trois critères sont, en fait, considérés dans le calcul du bénéfice mais sont maintenant présentés dans la partie courante de l'état des résultats. Le bénéfice avant éléments extraordinaires incluera dorénavant un plus grand nombre d'éléments non récurrents. Par conséquent, il est possible que l'ajout du troisième critère à la définition des éléments extraordinaires entraine une diminution de la valeur prédictive du bénéfice avant éléments extraordinaires. La période d'analyse s'étale sur les six années qui entourent la révision, soit trois ans avant la révision (1987, 1988 et 1989) et trois ans après la révision (1990, 1991 et 1992). Le modèle auto régressif de premier ordre a été retenu pour la prédiction des bénéfices par action avant éléments extraordinaires de chaque période. Les résultats obtenus suggèrent que la valeur prédictive du bénéfice par action avant éléments extraordinaires a diminué à la suite de la révision du chapitre 3480 du Manuel. Il ressort de cette étude que les débats sur la manière dont les éléments extraordinaires devraient être définis et présentés dans les états des résultats des entreprises canadiennes ne sont pas résolus par cette révision.
Resumo:
Destruction de la couche d'ozone, effet de serre, encombrement des sites d'enfouissement, voilà des sujets d'actualité abordés quotidiennement dans les médias. La société de consommation qui a apporté le confort matériel au citoyen, aujourd'hui détruit son environnement et diminue sa qualité de vie. Peut-on rester de glace devant les eaux dans lesquelles il n'est plus permis de se baigner? Devant un soleil qui augmente les risques de cancer ? Devant la qualité de l'air qui se dégrade ? Le citoyen peut, de plus en plus, constater de fait la dégradation de son milieu de vie. Les préoccupations concernant l'environnement du citoyen, qui est aussi un consommateur, se traduisent-ils comportements d'achat ? Comme le mentionne Driscoll (1991), les responsables du marketing doivent déterminer les actions et les compromis que certains consommateurs sont prêts à faire lorsqu'ils achètent un produit. L'objectif de la présente étude est donc de clarifier l'influence du critère environnemental, par rapport au degré de connaissance et d'implication des sujets, sur la perception de la valeur du produit et sur l'intention d'achat du consommateur vis-à-vis les produits "verts". De plus, l'étude permettra d'évaluer l'efficacité de stratégie de prix, de marque, d'efficacité et d'écologie dans le cadre d'une planification de marketing pour les produits environnementaux. Pour réaliser ce travail trois produits sont évalués par un échantillon probabiliste de la ville de Sherbrooke, soit; piles AA, nettoyant tout usage et savon à lessive. Les répondants à l'étude ont été regroupés selon deux niveaux de connaissance et d'implication, soit faible ou élevé. Ce travail débute par une revue de la littérature, suivie de la description de la méthodologie utilisée. Pour sa part, le chapitre 5 se consacre à la présentation et à la discussion des résultats de l'étude. La conclusion présente les limites de l'étude et les implications pour les gens d'affaires.
Resumo:
La Formule SAE (Society of Automotive Engineers) est une compétition étudiante consistant en la conception et la fabrication d’une voiture de course monoplace. De nombreux événements sont organisés à chaque année au cours desquels plusieurs universités rivalisent entre elles lors d’épreuves dynamiques et statiques. Celles-ci comprennent l’évaluation de la conception, l’évaluation des coûts de fabrication, l’accélération de la voiture, etc. Avec plus de 500 universités participantes et des événements annuels sur tous les continents, il s’agit de la plus importante compétition d’ingénierie étudiante au monde. L’équipe ULaval Racing a participé pendant plus de 20 ans aux compétitions annuelles réservées aux voitures à combustion. Afin de s’adapter à l’électrification des transports et aux nouvelles compétitions destinées aux voitures électriques, l’équipe a conçu et fabriqué une chaîne de traction électrique haute performance destinée à leur voiture 2015. L’approche traditionnelle employée pour concevoir une motorisation électrique consiste à imposer les performances désirées. Ces critères comprennent l’inclinaison maximale que la voiture doit pouvoir gravir, l’autonomie désirée ainsi qu’un profil de vitesse en fonction du temps, ou tout simplement un cycle routier. Cette approche n’est malheureusement pas appropriée pour la conception d’une traction électrique pour une voiture de type Formule SAE. Ce véhicule n’étant pas destiné à la conduite urbaine ou à la conduite sur autoroute, les cycles routiers existants ne sont pas représentatifs des conditions d’opération du bolide à concevoir. Ainsi, la réalisation de ce projet a nécessité l’identification du cycle d’opération routier sur lequel le véhicule doit opérer. Il sert de point de départ à la conception de la chaîne de traction composée des moteurs, de la batterie ainsi que des onduleurs de tension. L’utilisation d’une méthode de dimensionnement du système basée sur un algorithme d’optimisation génétique, suivie d’une optimisation locale couplée à une analyse par éléments-finis a permis l’obtention d’une solution optimale pour les circuits de type Formule SAE. La chaîne de traction conçue a été fabriquée et intégrée dans un prototype de voiture de l’équipe ULaval Racing lors de la saison 2015 afin de participer à diverses compétitions de voitures électriques.
Resumo:
Le processus de planification forestière hiérarchique présentement en place sur les terres publiques risque d’échouer à deux niveaux. Au niveau supérieur, le processus en place ne fournit pas une preuve suffisante de la durabilité du niveau de récolte actuel. À un niveau inférieur, le processus en place n’appuie pas la réalisation du plein potentiel de création de valeur de la ressource forestière, contraignant parfois inutilement la planification à court terme de la récolte. Ces échecs sont attribuables à certaines hypothèses implicites au modèle d’optimisation de la possibilité forestière, ce qui pourrait expliquer pourquoi ce problème n’est pas bien documenté dans la littérature. Nous utilisons la théorie de l’agence pour modéliser le processus de planification forestière hiérarchique sur les terres publiques. Nous développons un cadre de simulation itératif en deux étapes pour estimer l’effet à long terme de l’interaction entre l’État et le consommateur de fibre, nous permettant ainsi d’établir certaines conditions pouvant mener à des ruptures de stock. Nous proposons ensuite une formulation améliorée du modèle d’optimisation de la possibilité forestière. La formulation classique du modèle d’optimisation de la possibilité forestière (c.-à-d., maximisation du rendement soutenu en fibre) ne considère pas que le consommateur de fibre industriel souhaite maximiser son profit, mais suppose plutôt la consommation totale de l’offre de fibre à chaque période, peu importe le potentiel de création de valeur de celle-ci. Nous étendons la formulation classique du modèle d’optimisation de la possibilité forestière afin de permettre l’anticipation du comportement du consommateur de fibre, augmentant ainsi la probabilité que l’offre de fibre soit entièrement consommée, rétablissant ainsi la validité de l’hypothèse de consommation totale de l’offre de fibre implicite au modèle d’optimisation. Nous modélisons la relation principal-agent entre le gouvernement et l’industrie à l’aide d’une formulation biniveau du modèle optimisation, où le niveau supérieur représente le processus de détermination de la possibilité forestière (responsabilité du gouvernement), et le niveau inférieur représente le processus de consommation de la fibre (responsabilité de l’industrie). Nous montrons que la formulation biniveau peux atténuer le risque de ruptures de stock, améliorant ainsi la crédibilité du processus de planification forestière hiérarchique. Ensemble, le modèle biniveau d’optimisation de la possibilité forestière et la méthodologie que nous avons développée pour résoudre celui-ci à l’optimalité, représentent une alternative aux méthodes actuellement utilisées. Notre modèle biniveau et le cadre de simulation itérative représentent un pas vers l’avant en matière de technologie de planification forestière axée sur la création de valeur. L’intégration explicite d’objectifs et de contraintes industrielles au processus de planification forestière, dès la détermination de la possibilité forestière, devrait favoriser une collaboration accrue entre les instances gouvernementales et industrielles, permettant ainsi d’exploiter le plein potentiel de création de valeur de la ressource forestière.
Resumo:
La gérontologie est un domaine où les connaissances demeurent fragmentaires. Travailler auprès des aînés peut donc susciter des questions dont les réponses restent à éclaircir. L'une d'elles a fourni le point de départ de la recherche décrite dans ce mémoire. Il s'agit du manque de motivation à rester autonome physiquement, présenté chez un grand nombre de personnes âgées résidant en institution. Plus précisément, il sera traité de la valeur accordée à l'autonomie physique, c'est-à-dire d'un facteur intrinsèque de cette motivation. De plus, comme le domaine de l'autonomie physique reste large et imprécis, cette étude s'est limitée volontairement à l'autonomie physique dans les a.v.q. (activités de la vie quotidienne) de base; être autonome dans ses a.v.q., c'est pouvoir se nourrir, se laver, éliminer, s'habiller et se déplacer seul. Le présent travail s'attachera donc au domaine de la valeur accordée à l'autonomie physique dans les a.v.q. par les aînés. En particulier, il cherchera à fournir une réponse à la question suivante: "L'importance accordée à l'autonomie physique dans les activités de la vie quotidienne par les gens âgés diffère-t-elle selon que ces personnes sont institutionnalisées ou non?" Pour ce faire, la problématique rattachée à cette question sera d'abord précisée et les écrits des différents chercheurs et théoriciens sur les thèmes reliés à ce sujet seront résumés. La méthodologie utilisée, incluant les motifs entourant le choix des instruments et les critères définissant la population-cible, sera alors décrite. Puis, les résultats obtenus seront présentés et analysés. La portée de ces résultats, traitant de l'importance de la valeur accordée à l'autonomie physique et de ses déterminants (en particulier en ce qui a trait au lieu de résidence), sera ensuite discutée en rapport avec les limites rencontrées, permettant d'identifier, en conclusion, certaines pistes futures de réflexion.
Resumo:
Cette étude a pour objectif de déterminer la valeur pronostique de la protéine S-100ß et de l’énolase neurone-spécifique (NSE) chez les patients ayant subi un traumatisme craniocérébral (TCC) modéré ou grave. Deux revues systématiques et méta-analyses ont été effectuées afin de recenser les études présentant un dosage de ces biomarqueurs en lien avec la mortalité ou le pronostic fonctionnel évalué à l’aide du score du Glasgow outcome scale (GOS). Des 9228 résultats de la recherche, 41 et 26 études ont été incluses, respectivement, pour la protéine S-100ß et la NSE. Il existe une association entre le dosage sérique de la protéine S-100ß et de la NSE avec une issue clinique défavorable, c’est-à-dire la mortalité ou un score du GOS ≤ 3. Une concentration sérique entre 1,38 et 10,50 µg/L pour la protéine S-100ß est 100 % spécifique pour prédire le décès. La présence de lésions extracérébrales n’influençait pas cette association.
Resumo:
L’objectif de ce projet fut d’évaluer le bénéfice associé à la thérapie antihormonale (TA) pour les cancers du sein avec des récepteurs d’estrogènes (ER) faiblement positifs (<10 fmol/mg de cytosol). Nous avons identifié 2221 patientes avec cancer du sein dont ER ont été évalués par méthode biochimique (Ligand-Based Assay ou LBA) de 1976 à 1995 et suivies jusqu’en 2008. Des modèles à risques proportionnels de Cox ont été utilisés pour évaluer l’impact des différents niveaux de ER sur la survie au cancer du sein chez les patientes ayant reçu ou non une TA. Parmi les 2221 patientes incluses dans l’étude, 661 (29,8%) ont reçu une TA. Chez celles avec TA, une diminution significative de la mortalité spécifique au cancer du sein n’a été démontrée que pour les niveaux de ER ≥10 fmol/mg de cytosol. Ainsi, ceci ne supporte pas une TA pour les cancers du sein faiblement positif pour ER testés en LBA.