987 resultados para coût de la schizophrénie
Resumo:
La volonté d'intégrer, dans la communauté, les personnes présentant une déficience intellectuelle et de changer le mode de vie institutionnel par un mode de vie similaire à celui des autres citoyens, oriente depuis plusieurs années les services de réadaptation. Comme le souligne Kebbon (1987), ce désir d'intégrer les personnes présentant une déficience intellectuelle est largement issu du principe de la normalisation. D'abord formulé en Scandinavie par Nirje (1969) puis repris aux États-Unis par Wolfensberger (1972), ce principe statue qu'un effort constant doit être fait pour rendre normales les conditions de vie des personnes présentant une déficience intellectuelle. L'intégration est "une condition nécessaire à la normalisation et est habituellement le moyen d'y aboutir" (Kebbon, 1987; 69). Toutefois, selon plusieurs auteurs, le succès ou l'échec de l'intégration repose largement sur l'acceptation et l'appui du public (Eisenring et Pasche, 1981; lonescu, 1987; Kastner, Repucci et Pezzoli, 1979; Roth et Smith, 1983; Sandler et Robinson, 1981; Seltzer, 1984; Sternlicht, 1976). La connaissance des réactions des personnes qui vivent dans le voisinage d'une ressource d'hébergement pour personnes ayant une déficience intellectuelle s'avère donc essentielle afin de bien évaluer le processus d'intégration et d'offrir aux personnes déficientes une meilleure qualité de vie. Le mouvement de désinstitutionnalisation et d'intégration des personnes déficientes a été amorcé au Québec depuis une dizaine d'années. Or, on ne sait encore que peu de choses quant aux réactions de la population à cette intégration communautaire. Deux études québécoises (Coté, Ouellet et Lachance, 1990; lonescu et Despins, 1990) portant sur les attitudes envers l'intégration communautaire des personnes ayant une déficience intellectuelle apportent quelques renseignements. L'étude de lonescu et Despins réalisée auprès d'étudiants et d'étudiantes de niveau collégial et universitaire, montre que 85,5% des répondants sont favorables à l'intégration communautaire des personnes présentant une déficience intellectuelle. Celle de Côté et al. menée auprès du grand public, indique que les deux tiers des répondants ne seraient pas défavorables à la présence de ces personnes dans leur quartier. Toutefois, aucune étude québécoise réalisée auprès de personnes qui vivent directement en contact avec le phénomène de l'intégration des personnes présentant une déficience intellectuelle n'a été recensée. Comment réagissent les gens lorsqu'ils sont confrontés au phénomène de l'intégration? Acceptent-ils la présence des personnes ayant une déficience intellectuelle ou, au contraire, s'y opposent-ils? Comment manifestent-ils leur acceptation ou leur opposition? Voilà autant de questions auxquelles ce mémoire tentera de répondre.
Resumo:
Contexte: La douleur chronique non cancéreuse (DCNC) génère des retombées économiques et sociétales importantes. L’identification des patients à risque élevé d’être de grands utilisateurs de soins de santé pourrait être d’une grande utilité; en améliorant leur prise en charge, il serait éventuellement possible de réduire leurs coûts de soins de santé. Objectif: Identifier les facteurs prédictifs bio-psycho-sociaux des grands utilisateurs de soins de santé chez les patients souffrant de DCNC et suivis en soins de première ligne. Méthodologie: Des patients souffrant d’une DCNC modérée à sévère depuis au moins six mois et bénéficiant une ordonnance valide d’un analgésique par un médecin de famille ont été recrutés dans des pharmacies communautaires du territoire du Réseau universitaire intégré de santé (RUIS), de l’Université de Montréal entre Mai 2009 et Janvier 2010. Ce dernier est composé des six régions suivantes : Mauricie et centre du Québec, Laval, Montréal, Laurentides, Lanaudière et Montérégie. Les caractéristiques bio-psycho-sociales des participants ont été documentées à l’aide d’un questionnaire écrit et d’une entrevue téléphonique au moment du recrutement. Les coûts directs de santé ont été estimés à partir des soins et des services de santé reçus au cours de l’année précédant et suivant le recrutement et identifiés à partir de la base de données de la Régie d’Assurance maladie du Québec, RAMQ (assureur publique de la province du Québec). Ces coûts incluaient ceux des hospitalisations reliées à la douleur, des visites à l’urgence, des soins ambulatoires et de la médication prescrite pour le traitement de la douleur et la gestion des effets secondaires des analgésiques. Les grands utilisateurs des soins de santé ont été définis comme étant ceux faisant partie du quartile le plus élevé de coûts directs annuels en soins de santé dans l’année suivant le recrutement. Des modèles de régression logistique multivariés et le critère d’information d’Akaike ont permis d’identifier les facteurs prédictifs des coûts directs élevés en soins de santé. Résultats: Le coût direct annuel médian en soins de santé chez les grands utilisateurs de soins de santé (63 patients) était de 7 627 CAD et de 1 554 CAD pour les utilisateurs réguliers (188 patients). Le modèle prédictif final du risque d’être un grand utilisateur de soins de santé incluait la douleur localisée au niveau des membres inférieurs (OR = 3,03; 95% CI: 1,20 - 7,65), la réduction de la capacité fonctionnelle liée à la douleur (OR = 1,24; 95% CI: 1,03 - 1,48) et les coûts directs en soins de santé dans l’année précédente (OR = 17,67; 95% CI: 7,90 - 39,48). Les variables «sexe», «comorbidité», «dépression» et «attitude envers la guérison médicale» étaient également retenues dans le modèle prédictif final. Conclusion: Les patients souffrant d’une DCNC au niveau des membres inférieurs et présentant une détérioration de la capacité fonctionnelle liée à la douleur comptent parmi ceux les plus susceptibles d’être de grands utilisateurs de soins et de services. Le coût direct en soins de santé dans l’année précédente était également un facteur prédictif important. Améliorer la prise en charge chez cette catégorie de patients pourrait influencer favorablement leur état de santé et par conséquent les coûts assumés par le système de santé.
Resumo:
Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.
Resumo:
En la presente investigación se evaluó la aplicación de los tratamientos de electrocoagulación (EC), Fenton y foto-Fenton para remover compuestos fenólicos presentes en el agua residual de una refinería del petróleo, y cumplir con el nivel regulatorio de descarga establecido por la Agencia de Protección Ambiental (EPA, por sus siglas en inglés). En el proceso de electrocoagulación se evaluaron las variables de tiempo de tratamiento, densidad de corriente, tipo de electrodo, tipo de configuración, posición de los electrodos, pH y agitación, mediante un diseño experimental. Al agua electrocoagulada se le aplicó el tratamiento Fenton, en el cual se evaluaron las variables de concentración de H2O2, Fe2+, y el tiempo de tratamiento. Con el fin de mejorar los porcentajes de mineralización del agua electrocoagulada se aplicó el tratamiento foto-Fenton con luz ultravioleta, en el cual se evaluaron los efectos de las concentraciones de H2O2, Fe2+ y aireación. Conclusiones y contribuciones: Para el tratamiento de electrocoagulación, las mejores condiciones de operación se obtienen bajo las siguientes condiciones: 40 mAcm-2, tiempo de tratamiento de 20 min, pH 7, agitación de 155 rpm, con electrodos orientados horizontalmente en configuración monopolar en paralelo, usando electrodos de hierro; bajo estas condiciones se remueve 52.4% de fenoles totales y 42.3% de COT. La aplicación al agua residual electrocoagulada del tratamiento Fenton, conduce a la degradación de los compuestos fenólicos remanentes del tratamiento de EC a concentraciones menores a 1 ppm y 57.6 % de remoción de COT, siendo las condiciones siguientes las mejores obtenidas: concentración de 19.8 mgL-1 de Fe2+ y 612 mgL-1 de H2O2 en un tiempo de reacción de 15 min a pH 3. Los mejores resultados del tratamiento foto-Fenton aplicado al agua electrocoagulada se obtienen con 306 mgL-1 de H2O2, 19.8 mgL-1 de Fe2+, y con aplicación de aire, alcanzando una remoción de 88% de COT.
Resumo:
Propósito y Método del estudio: En este trabajo se estudió la influencia del método de síntesis en las propiedades fisicoquímicas, fotocatalíticas y fotoelectroquímicas del BaBiO3 y el Sr2Bi2O5. En primera instancia, se realizó la síntesis de los materiales por la técnica de estado sólido (pos-tratamiento con molienda mecánica) e hidrotermal. Para la síntesis en hidrotermal se exploraron 3 diferentes temperaturas: 130, 150, 170 °C. Los materiales obtenidos fueron caracterizados mediante Difracción de Rayos-X (DRX), Espectroscopía de Reflectancia Difusa (ERD), Microscopía Electrónica de Barrido (MEB) y Fisisorción de Nitrógeno. Posteriormente se realizó la evaluación de las propiedades fotocatalíticas de los materiales obtenidos en la degradación de rodamina B. Las pruebas fotocatalíticas se realizaron en un reactor tipo Batch, utilizando una lámpara de Xenón de 6000 K. El estudio fotocatalítico finalizó con el cálculo de parámetros cinéticos tales como la constante de velocidad aparente (k) y tiempo de vida media (t1/2). Los resultados mostraron que el BaBiO3 sintetizado por reacción de estado sólido presentó la mayor eficiencia fotocatalitica. Para incrementar la eficiencia fotocatalitica de los materiales sintetizados se adicionaron superficialmente partículas de NiO en porcentajes de 3, 5 y 10 % al bismutato de estroncio y bario, utilizando para ello el método de impregnación. Los materiales fueron caracterizados y probados en la degradación de rodamina B. Por otro lado, para conocer el grado de eficiencia de los materiales se realizó el estudio fotoelectroquímico para determinar la posición de las bandas de conducción y valencia de cada uno de ellos. El grado de mineralización de la rodamina B se analizó mediante análisis de Carbón Orgánico Total (COT) y adicionalmente se realizaron pruebas de reproducibilidad para determinar la estabilidad de los materiales ante la exposición de ciclos sucesivos de irradiación. Contribuciones y conclusiones: Se lograron obtener los Bismutatos de Estroncio y Bario mediante la reacción en estado sólido a 800 y 900 °C. Mientras que por el método de hidrotermal se obtuvieron los materiales a 130, 150 y 170°C, seguido de un tratamiento térmico a 700°C. Los resultados de electroquímica mostraron que el material de Sr2Bi2O5 es apto para generar procesos de oxidación y reducción. La adición de NiO no proporcionó mejora en la eficiencia fotocatalítica, lo que se atribuyó a las aglomeraciones de partículas sobre la superficie de los materiales. Los materiales obtenidos por estado sólido presentaron la mayor actividad fotocatalítica en degradación de rodamina B, comparados con los obtenidos por el método de hidrotermal, por lo que el factor que domina la actividad fotocatalítica de estos materiales fue principalmente la cristalinidad. Además los materiales presentaron buena estabilidad ante ciclos sucesivos de irradiación y mostraron un buen grado de mineralización de la rodamina B.
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.
Resumo:
Las condiciones oceanográficas y geoquímicas asociadas al azufre inorgánico fueron estudiadas en la bahía de Paracas para determinar su impacto en los procesos de sulfato-reducción, el intercambio de sulfuro de hidrógeno en la interfaz agua-sedimento y su movilización hacia la fracción precipitada. Se establecieron tres estaciones de muestreo al interior de la bahía entre abril y junio de 2015. La variación espacio-temporal de las especies de azufre inorgánico disuelto (H2S y SO4-2) y precipitado (Acid Volatile Sulfide AVS y Chromium-Reducible Sulfur CRS) se analizaron en relación a los factores ambientales: velocidad de vientos, oxígeno disuelto, temperatura, pH e indicadores de materia orgánica fresca (Cl-a) y de preservación de materia orgánica (COT y NT), así como azufre total (ST). A partir de los análisis de correlación cruzada, se infiere que en las estaciones más profundas hay una mayor correlación entre el oxígeno disuelto y la temperatura que en la estación somera, la correlación de estas variables con la velocidad de viento no fue significativa (p>0.05). Las aguas de fondo en la bahía muestran alternancia entre condiciones hipóxicas (<1,43 mL/L) y micróxicas (<0.10 mL/L) durante otoño con períodos prolongados y con máximas concentraciones de H2S (4,966.76 uM) en los primeros 20 cm del sedimento. El análisis de componentes principales sugiere condiciones más favorables para la sulfato reducción en abril y una mayor oxigenación en junio, a pesar de esto hay una tendencia de incremento de AVS y CRS hacia junio, posiblemente como una respuesta en desfase de las condiciones iniciales, ocasionando una mayor precipitación de monosulfuros de hierro y pirita hacia junio. A pesar de esta precipitación significativa de azufreexisten importantes flujos difusivos de H2S (en promedio de 574.76 μmol.m².d-1), colocando a la bahía de Paracas bajo un escenario de fuente de H2S, que podría alcanzar una condición más severa (2824.94 μmol.m².d-1) durante un evento de aguas blancas.
Resumo:
Des techniques adaptées aux contextes routiers sont nécessaires pour maintenir et réhabiliter des chaussées construites sur pergélisol ou en contexte de gel saisonnier. Plusieurs problématiques peuvent engendrer une augmentation des coûts de réparation et entretien, une diminution de la durée de vie des chaussées et des problèmes reliés à la sécurité des usagers de la route. L’objectif du projet consiste donc à élaborer un outil d’aide à la décision, qui contribuerait à localiser les zones sensibles au gel saisonnier et à la dégradation du pergélisol, à discerner les causes de dégradation des chaussées dues au gel saisonnier et à sélectionner les meilleures stratégies d’atténuation et de réfection à moindre coût. Le projet de recherche est divisé en deux volets distincts. Le premier volet traite des problématiques de gel de chaussées en contexte de gel saisonnier. Actuellement, il existe des méthodes de diagnostic qui permettent de détecter les endroits où un problème de gélivité est susceptible d’être présent. Par contre, ces méthodes ne permettent pas de discerner si le problème de gel est en profondeur ou en surface de la chaussée; en d’autres mots si le problème est lié à un soulèvement différentiel du sol ou à un soulèvement de fissures. De plus, les méthodes utilisées ne sont pas adaptées aux chaussées en contexte municipal. Selon les problématiques connues de certains sites, il a été possible de développer un abaque permettant de différencier si la problématique de gel se situe en surface ou en profondeur dans une chaussée. Puis, une analyse d’imagerie 3D a été réalisée pour complémenter l’abaque créé. À l’aide de cette technologie, une nouvelle méthode sera mise au point pour détecter des problématiques de gel grâce aux profils transversaux. Le deuxième volet porte sur les chaussées construites sur pergélisol. Les méthodes actuelles de détection de la dégradation du pergélisol sous les chaussées manquent de précision et ont besoin d’être raffinées, surtout dans le contexte actuel de réchauffement climatique. Pour ce faire, trois sites d’essais ont été étudiés sur l’Alaska Highway au Yukon. En fonction de différentes analyses telles que des analyses de profils longitudinaux, de la densité spectrale et de longueurs d’onde, des tendances ont été décelées pour caractériser l’instabilité du pergélisol.
Resumo:
La fixation biologique d’azote (réduction du N2 atmosphérique, non biodisponible, en ammonium (NH3) bioassimilable) est catalysée par la métalloenzyme nitrogénase. Cette enzyme existe sous trois isoformes chez la bactérie du sol Azotobacter vinelandii: les nitrogénases au molybdène (Mo), au vanadium (V) et au fer (Fe). L’acquisition des métaux cofacteurs constitue un paramètre d’intérêt majeur car Mo et V sont fortement complexés à la matrice (matière organique et oxydes) ce qui peut limiter leur disponibilité. Ces travaux ont montré que la présence d’acide tannique et d’oxydes de fer entraîne des changements majeurs dans la gestion des métaux cofacteurs (Mo et V) chez A. vinelandii. Les stratégies d’acquisition des métaux cofacteurs sont fortement modifiées en présence de ces complexants avec (i) un changement important de la quantité des metallophores produits ainsi que (ii) une acquisition simultanée de Mo et V dans des conditions traditionnellement considérées comme non limitantes en Mo. Ceci se traduit par un changement important dans l’utilisation des nitrogénases; les niveaux de transcrits élevés des gènes nifD et vnfD, spécifiques des nitrogénases au Mo et au V respectivement, suggèrent une utilisation simultanée de ces isoenzymes pour assurer la fixation d’azote. Ce projet a permis de mettre en évidence que face à un stress métallique, l’utilisation des isoformes de la nitrogénase par A. vinelandii est un processus plus versatile que précédemment décrit et que le coût d’acquisition des métaux dans ces conditions constitue un facteur important de la régulation de l’activité des nitrogénases. Ceci suggère que les nitrogénases alternatives pourraient contribuer à la fixation d’azote de manière plus importante que présentement admis.
Resumo:
L'énergie solaire est une source d'énergie renouvelable et naturellement disponible partout sur terre. Elle est donc tout indiquée pour remplacer à long terme une part importante des combustibles fossiles dans le portrait énergétique mondial. Comme toutes les formes d'énergie utilisées par la société, l'énergie solaire n'échappe pas aux lois économiques et son adoption dépend directement du coût par unité d'énergie produite. Plusieurs recherches et développements technologiques cherchent à réduire ce coût par différents moyens. Une de ces pistes est l'intégration de deux technologies solaires, la technologie photovoltaïque et la technologie thermique, au sein d'un même système. La conception d'un tel système pose plusieurs défis technologiques, le plus important étant sans contredit la compétition entre la quantité d'électricité produite et la qualité de la chaleur. En effet, ces deux variables varient de manière opposée par rapport à la température~: le rendement des cellules photovoltaïques a tendance à diminuer à haute température alors que la valeur utile de l'énergie thermique tend à augmenter. Une conception judicieuse d'un système photovoltaïque/thermique (PV/T) devra donc prendre en compte et connaître précisément le comportement d'une cellule à haute température. Le présent projet propose de concevoir un système permettant la caractérisation de cellules photovoltaïques sur une large plage de température. Premièrement, une revue de littérature pose les bases nécessaires à la compréhension des phénomènes à l'origine de la variation de la performance en fonction de la température. On expose également différents concepts de système PV/T et leur fonctionnement, renforçant ainsi la raison d'être du projet. Deuxièmement, une modélisation théorique d'une cellule photovoltaïque permet de définir grossièrement le comportement attendu à haute température et d'étudier l'importance relative de la variation du courant photogénéré et de la tension en circuit ouvert. Ce modèle sera plus tard comparé à des résultats expérimentaux. Troisièmement, un banc d'essais est conçu et fabriqué d'après une liste de critères et de besoins. Ce banc permet d'illuminer une cellule, de faire varier sa température de -20 °C à 200 °C et de mesurer la courbe I-V associée. Le système est partiellement contrôlé par un PC et la température est asservie par un contrôleur de type PID. Le banc a été conçu de manière à ce que la source de lumière soit aisément échangeable si un spectre différent est désiré. Finalement, le comportement du montage est validé en caractérisant une cellule au silicium et une autre à base de InGaP. Les résultats sont comparés aux prédictions du modèle et aux données de la littérature. Une étude d'incertitude permet également de cibler la source principale de bruit dans le système et propose des pistes d'améliorations à ce propos.
Resumo:
Cot de Oreamuno es una de las poblaciones más antiguas del país
Resumo:
Este libro es una invitación reconceptualizar las maneras de escuchar, conocer, acompañar y educar a los niños desde la primera infancia en un mundo multicultural, cambiante y posmoderno. Los trabajos que lo integran parten de perspectivas que generan nuevas formas de ver, hacer y estar en el mundo, ofrecen una reconstrucción de la psicología del desarrollo y destacan la importancia de la cultura, la etnia, el género y la sexualidad, sin olvidar la historia, la política y el discurso científico.