957 resultados para Every day concepts


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract  In a case study about viewing habits in a Swedish audience I sampled 309 questionnaires; interviews with five focus group were conducted together with ten in-depth individual interviews discussing altogether fifteen favorite films exploring specific scenes of idiosyncratic relevance.  The outcome supports claims about viewers as active and playful (cf. Höijer 1998, Frampton 2006, Hoover 2006, Plantinga 2009). In line with mediatization theory I also argue that spiritual meaning making takes place through mediated experiences and I support theories about fiction films as important sources for moral and spiritual reflection (Partridge 2004, Zillman 2005, Lynch 2007, Plantinga 2009). What Hjarvard calls the soft side of mediatization processes (2008) is illustrated showing adults experiencing enchantment through favorite films (Jerslev 2006, Partridge 2008, Klinger 2008, Oliver & Hartmann 2010).  Vernacular meaning making embedded in everyday life and spectators dealing with fiction narratives such as Gladiator, Amelie from Montmartre or Avatar highlights the need for a more nuanced understanding of elevated cinematic experiences. The reported impact of specific movies is analyzed through theories where cognition and affect are central aspects of spectators’ engagements with a film (Tan 1996, Caroll 1999, Grodal 2009). Crucially important are theories of meaning-making where viewers’ detailed interpretation of specific scenes are embedded in high-level meaning-making where world view issues and spectators’ moral frameworks are activated (Zillman 2005, Andersson & Andersson 2005, Frampton 2006, Lynch 2007, Avila 2007, Axelson 2008, Plantinga 2009).  Also results from a growing body of empirical oriented research in film studies are relevant with an interest in what happens with the flesh and blood spectator exposed to filmic narratives (Jerslev 2006, Klinger 2008, Barker 2009, Suckfüll 2010, Oliver & Hartmann 2010). Analyzing the qualitative results of my case study, I want to challenge the claim that the viewer has to suspend higher order reflective cognitive structures in order to experience suture (Butler & Palesh 2004). What I find in my empirical examples is responses related to spectators’ highest levels of mental activity, all anchored in the sensual-emotional apparatus (Grodal 2009). My outcome is in line with a growing number of empirical case studies which support conclusions that both thinking and behavior are affected by film watching (Marsh 2007, Sückfull 2010, Oliver & Hartmann 2010, Axelson forthcoming). The presentation contributes to a development of concepts which combines aesthetic, affective and cognitive components in an investigation of spectator’s moves from emotional evaluation of intra-text narration to extra-textual assessments, testing the narrative for larger significance in idiosyncratic ways (Bordwell & Thompson 1997, Marsh 2007, Johnston 2007, Bruun Vaage 2009, Axelson 2011). There are a several profitable concepts suggested to embrace the complex interplay between affects, cognition and emotions when individuals respond to fictional narratives. Robert K. Johnston label it “deepening gaze” (2007: 307) and “transformative viewing” (2007: 305). Philosopher Mitch Avila proposes “high cognition” (2007: 228) and Casper Thybjerg ”higher meaning” (2008: 60). Torben Grodal talks about “feelings of deep meaning” (Grodal 2009: 149). With a nod to Clifford Geertz, Craig Detweiler adopts “thick description” (2007: 47) as do Kutter Callaway altering it to ”thick interpretations” (Callaway 2013: 203).  Frampton states it in a paradox; ”affective intelligence” (Frampton 2006: 166). As a result of the empirical investigation, inspired by Geertz, Detweiler & Callaway, I advocate thick viewing for capturing the viewing process of these specific moments of film experience when profound and intensified emotional interpretations take place. The author As a sociologist of religion, Tomas Axelsons research deals with people’s use of mediated narratives to make sense of reality in a society characterized by individualization, mediatization and pluralized world views.  He explores uses of fiction film as a resource in every day life and he is currently finishing his three year project funded by the Swedish Research Council: Spectator engagement in film and utopian self-reflexivity. Moving Images and Moved Minds. http://www.du.se/sv/AVM/Personal/Tomas-Axelson Bibliography Axelson, T. (Forthcoming 2014). Den rörliga bildens förmåga att beröra.[1] Stockholm: Liber Axelson, T. (In peer review). Vernacular Meaning Making. Examples of narrative impact in fiction film questioning the ’banal’ notion in mediatization theory. Nordicom Review. Nordicom Göteborg. Axelson, T. (2011). Människans behov av fiktion. Den rörliga bildens förmåga att beröra människan på djupet.[2]Kulturella perspektiv. Volume 2. Article retrieved from www.kultmed.umu.se/digitalAssets/74/74304_axelson-22011.pdf Axelson, Tomas (2010) “Narration, Visualization and Mind. Movies in everyday life as a resource for utopian self-reflection.” Paper presentation at CMRC, 7th Conference of Media, Religion & Culture in Toronto, Canada 9 – 13th August 2010. Axelson, Tomas (2008) Movies and Meaning. Studying Audience, Favourite Films and Existential Matters. Particip@tions : Journal of Audience and Reception Studies. Volume 5, (1). Doctoral dissertation summary. ACTA UNIVERSITATIS UPSALIENSIS. Article retrieved from http://www.participations.org/Volume%205/Issue%201%20-%20special/5_01_axelson.htm  [1] English translation: Moving Images and Moved Minds. [2] English translation: Our need for fiction. Deeply Moved by Moving Images. Cultural Perspectives.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In Costa Rica, many secondary students have serious difficulties to establish relationships between mathematics and real-life contexts. They question the utilitarian role of the school mathematics. This fact motivated the research object of this report which evidences the need to overcome methodologies unrelated to students’ reality, toward new didactical options that help students to value mathematics, reasoning and its  applications, connecting it with their socio-cultural context. The research used a case study as a qualitative methodology and the social constructivism as an educational paradigm in which the knowledge is built by the student; as a product of his social interactions. A collection of learning situations was designed, validated, and implemented. It allowed establishing relationships between mathematical concepts and the socio-cultural context of participants. It analyzed the impact of students’socio-cultural context in their mathematics learning of basic concepts of real variable functions, consistent with the Ministry of Education (MEP) Official Program.  Among the results, it was found that using students’sociocultural context improved their motivational processes, mathematics sense making, and promoted cooperative social interactions. It was evidenced that contextualized learning situations favored concepts comprehension that allow students to see mathematics as a discipline closely related with their every-day life.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Universidade Estadual de Campinas . Faculdade de Educação Física

Relevância:

90.00% 90.00%

Publicador:

Resumo:

No dia a dia, as pessoas sabem que existem várias aplicações financeiras, mas a grande maioria não possui o conhecimento necessário para escolher qual o melhor investimento para o seu dinheiro. E assim, muitas vezes acabam investindo somente na poupança, talvez pela sua simplicidade ou por sua popularidade. Neste trabalho, buscamos mostrar a importância da Matemática Financeira para o entendimento de investimentos. Através de uma abordagem de Progressões Geométrica e Aritmética e, consequentemente, da Matemática Financeira, são apresentadas algumas aplicações financeiras, com seus conceitos, cálculos e atividades que mostram como compará-las. Assim, no trabalho são descritos conceitos e propriedades das Progressões Geométrica e Aritmética, e da Matemática Financeira e, como aplicação desse conteúdo, são apresentados o conceito e o cálculo de diversas taxas (equivalência de taxas, taxas efetiva e nominal, taxa pré e pós-fixada, taxas variáveis, taxa referencial), além de alguns investimentos financeiros (poupança, CDB, LCI). Buscando consolidar esse estudo desenvolvido, apresentamos no final do trabalho uma proposta de atividades a serem realizadas em sala de aula, que contemplam cálculos da rentabilidade dos investimentos, mostrando ao aluno como calcular e comparar esses rendimentos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Doctoral Thesis in Information Systems and Technologies Area of Engineering and Manag ement Information Systems

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O presente trabalho foi elaborado no âmbito da Dissertação Final de Mestrado do curso de Engenharia Mecânica – Gestão Industrial do Instituto Superior de Engenharia do Porto. Este foi realizado numa empresa da indústria de pneus, a Continental Mabor S.A.. Nos dias atuais, a indústria esta cada vez mais competitiva, os custos e os prazos da entrega são cada vez mais reduzidos e a qualidade cada vez mais exigente, assim sendo, é imprescindível uma constante melhoria do sistema produtivo. Este fato fez com que o presente trabalho tivesse como principal objetivo determinar o estado atual e delinear um plano de melhoria para um equipamento (Extrusora de pisos nº6), recentemente instalado na fábrica mas oriundo de outra fábrica do grupo, recorrendo para tal ao Lean Manufacturing e a ferramentas que lhe estão associadas. Inicialmente realizou-se uma análise e diagnóstico ao processo de extrusão de pisos na Extrusora nº6, com o intuito de avaliar todas as suas ineficiências e ainda formular um plano de melhorias para a ineficiência de maior impacto no sistema produtivo. Esta análise foi realizada em diferentes turnos e diferentes equipas de trabalho de forma a se obter uma amostra mais representativa da realidade global. Após esta análise verificou-se que as principais ineficiências eram Setup, conformidade do material, dimensões e encravamentos, entre outros. Sendo que os Setup provocam um tempo de paragem de 101 minutos por turno, escolheu-se esta perturbação como o foco do plano de melhorias a realizar posteriormente. De forma a reduzir os tempos de mudança (Setup), o autor no presente trabalho utilizou ferramentas Lean Manufacturing, principalmente o SMED. Conjuntamente com o SMED ainda foram utilizadas outras ferramentas Lean Manufacturing tais como: 5S, Gestão Visual, Problem Solving e Normalização do Método de Trabalho. Após a implementação de todas estas ferramentas obteve-se uma redução de tempos de mudança de 43% com 1 operador e 71% com 2 operadores, ou seja, reduziu-se de 40,5 minutos gastos por turno para a mudança de fieira para 23,13 min e 11,79 min respetivamente, o que corresponde a um ganho monetário anual de 63.621€ ou 105.045€, respetivamente. Com este trabalho conclui-se que a utilização de ferramentas Lean Manufacturing contribuem para a redução dos desperdícios do processo produtivo. Por isso, espera-se que este estudo seja aplicado na Extrusora nº6 e nas restantes Extrusoras de pisos existentes na fábrica, e num futuro próximo que se realize estudos semelhantes em máquinas com diferentes funções.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

All every day activities take place in space. And it is upon this that all information and knowledge revolve. The latter are the key elements in the organisation of territories. Their creation, use and distribution should therefore occur in a balanced way throughout the whole territory in order to allow all individuals to participate in an egalitarian society, in which the flow of knowledge can take precedence over the flow of interests. The information society depends, to a large extent, on the technological capacity to disseminate information and, consequently, the knowledge throughout territory, thereby creating conditions which allow a more balanced development, from the both the social and economic points of view thus avoiding the existence of info-exclusion territories. Internet should therefore be considered more than a mere technology, given that its importance goes well beyond the frontiers of culture and society. It is already a part of daily life and of the new forms of thinking and transmitting information, thus making it a basic necessity essential, for a full socio-economic development. Its role as a platform of creation and distribution of content is regarded as an indispensable element for education in today’s society, since it makes information a much more easily acquired benefit.”…in the same way that the new technologies of generation and distribution of energy allowed factories and large companies to establish themselves as the organisational bases of industrial society, so the internet today constitutes the technological base of the organisational form that characterises the Information Era: the network” (CASTELLS, 2004:15). The changes taking place today in regional and urban structures are increasingly more evident due to a combination of factors such as faster means of transport, more efficient telecommunications and other cheaper and more advanced technologies of information and knowledge. Although their impact on society is obvious, society itself also has a strong influence on the evolution of these technologies. And although physical distance has lost much of the responsibility it had towards explaining particular phenomena of the economy and of society, other aspects such as telecommunications, new forms of mobility, the networks of innovation, the internet, cyberspace, etc., have become more important, and are the subject of study and profound analysis. The science of geographical information, allows, in a much more rigorous way, the analysis of problems thus integrating in a much more balanced way, the concepts of place, of space and of time. Among the traditional disciplines that have already found their place in this process of research and analysis, we can give special attention to a geography of new spaces, which, while not being a geography of ‘innovation’, nor of the ‘Internet’, nor even ‘virtual’, which can be defined as one of the ‘Information Society’, encompassing not only the technological aspects but also including a socio-economic approach. According to the last European statistical data, Portugal shows a deficit in terms of information and knowledge dissemination among its European partners. Some of the causes are very well identified - low levels of scholarship, weak investments on innovation and R&D (both private and public sector) - but others seem to be hidden behind socio-economical and technological factors. So, the justification of Portugal as the case study appeared naturally, on a difficult quest to find the major causes to territorial asymmetries. The substantial amount of data needed for this work was very difficult to obtain and for the islands of Madeira and Azores was insufficient, so only Continental Portugal was considered for this study. In an effort to understand the various aspects of the Geography of the Information Society and bearing in mind the increasing generalised use of information technologies together with the range of technologies available for the dissemination of information, it is important to: (i) Reflect on the geography of the new socio-technological spaces. (ii) Evaluate the potential for the dissemination of information and knowledge through the selection of variables that allow us to determine the dynamic of a given territory or region; (iii) Define a Geography of the Information Society in Continental Portugal.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Resumo: A insuficiência cardíaca, já denominada de epidemia do século XXI é, de entre as doenças cardiovasculares, a única cuja incidência e prevalência continuam a crescer, apesar dos imensos progressos feitos na área da terapêutica nas últimas duas décadas. Caracteriza-se por elevada mortalidade – superior à do conjunto das neoplasias malignas -, grande morbilidade, consumo de recursos e custos exuberantes. É um dos problemas mais graves de Saúde Pública dos Países industrializados, cujo manejo deverá constituir uma prioridade para os Serviços Nacionais de Saúde. Todavia, o reconhecimento universal da gravidade desta situação tem originado poucas soluções concretas para conter a epidemia, cujo protagonismo não cessa de aumentar. É possível hoje prevenir, tratar de forma a retardar a evolução da doença ou até revertê-la, desde que diagnosticada atempadamente. Qualquer atitude nestas áreas pressupõe um diagnóstico correcto, precoce e completo da situação, sem o qual não haverá um tratamento adequado. O diagnóstico tem preocupado bem menos os investigadores e os clínicos que a terapêutica. É, contudo, comprovadamente difícil a todos os níveis dos Cuidados de Saúde e constitui certamente a primeira barreira ao controlo da situação. OBJECTIVOS: À luz do conhecimento actual e da nossa própria experiência, propusemo-nos analisar os problemas do diagnóstico da insuficiência cardíaca e a forma como eles se repercutem no manejo da doença e na saúde das populações. Foram objectivos desta dissertação avaliar como a evolução dos modelos de insuficiência cardíaca e de disfunção ventricular influenciaram a definição e os critérios de diagnóstico da doença ao longo do tempo; as consequências geradas pela falta de consenso quanto à definição e aos critérios de diagnóstico nas diferentes fases de evolução desta entidade; discutir o papel da clínica e dos exames complementares no diagnóstico da síndrome e nas estratégias de rastreio da disfunção cardíaca; apontar alguns caminhos e possíveis metodologias para o manejo da doença de forma a que possamos, no futuro, diagnosticar melhor para melhor prevenir, tratar e conter a epidemia. METODOLOGIA: A metodologia utilizada neste trabalho decorre directamente da actividade assistencial diária e da investigação clínica gerada no interesse pelos problemas com que nos deparámos, ao longo dos anos, na área da insuficiência cardíaca. A par com o estudo epidemiológico da insuficiência cardíaca em Portugal, desenvolvemos um protocolo original para a avaliação da qualidade do diagnóstico no ambulatório e do papel da clínica e dos diferentes exames complementares no diagnóstico da síndrome. Avaliámos os problemas do diagnóstico da insuficiência cardíaca em meio hospitalar através de um inquérito endereçado aos Directores de Serviço, pelo Grupo de Estudo de Insuficiência Cardíaca da Sociedade Portuguesa de Cardiologia. Analisámos a qualidade do diagnóstico da insuficiência cardíaca codificado à data da alta hospitalar. Após a criação de uma área específica, vocacionada para o internamento de doentes com insuficiência cardíaca, avaliámos o seu impacto no diagnóstico e tratamento da síndrome. Também testámos o desempenho dos peptídeos natriuréticos no diagnóstico dos diferentes tipos de insuficiência cardíaca sintomática, em meio hospitalar. Os resultados parciais da investigação clínica foram sendo comunicados à comunidade científica e publicados em revistas da especialidade. Discutimos, nesta dissertação, os artigos publicados e em publicação, à luz do estado actual da arte na área do diagnóstico. Reflectimos sobre as consequências das dificuldades no diagnóstico da insuficiência cardíaca e apontamos possíveis caminhos para implementar o rastreio. RESULTADOS: Em 1982, muito no início da nossa actividade clínica, cientes da complexidade da insuficiência cardíaca e do desafio que a sua abordagem constituía para os clínicos,empenhávamo-nos no desenvolvimento de uma classificação fisiopatológica original da insuficiência cardíaca, que foi tema para a Tese de Doutoramento da Professora Doutora Fátima Ceia em 1989. sistemático da doença, melhorar os cuidados prestados aos doentes e diminuir os custos envolvidos no manejo da síndrome. No artigo 1 – Insuficiência cardíaca: novos conceitos fisiopatológicos e implicações terapêuticas – publicado em 1984, descrevemos, à luz do conhecimento da época, a insuficiência cardíaca como uma doença sistémica, resultado da interacção entre os múltiplos mecanismos de compensação da disfunção cardíaca. Desenvolvemos “uma classificação fisiopatológica com implicações terapêuticas” original, onde delineámos os diferentes tipos de insuficiência cardíaca, as suas principais características clínicas, hemodinâmicas, funcionais e anatómicas e propuzemos terapêutica individualizada de acordo com a definição e o diagnóstico dos diferentes tipos de insuficiência cardíaca. Em 1994, no artigo 2 – A insuficiência cardíaca e o clínico no fim do século vinte – salientamos a forma como os diferentes mecanismos de compensação interagem, influenciam a evolução da doença no tempo, produzem síndromes diferentes e fundamentam a actuação terapêutica. Discutimos a evolução da definição da doença de acordo com o melhor conhecimento da sua fisiopatologia e etiopatogenia. Sublinhamos a necessidade de desenvolver estratégias para a prevenção da doença, o diagnóstico precoce e o tratamento atempado. Ainda no primeiro capítulo: Insuficiência cardíaca: da fisiopatologia à clínica – um modelo em constante evolução – revisitámos os sucessivos modelos fisiopatológicos da insuficiência cardíaca: cardio-renal, hemodinâmico, neuro-hormonal e imuno-inflamatório e a sua influência na definição da síndrome e nos critérios de diagnóstico. Analisámos a evolução do conceito de disfunção cardíaca que, à dicotomia da síndrome em insuficiência cardíaca por disfunção sistólica e com função sistólica normal, contrapõe a teoria do contínuo na evolução da doença. Esta última, mais recente, defende que estas duas formas de apresentação não são mais do que fenótipos diferentes, extremos, de uma mesma doença que origina vários cenários, desde a insuficiência cardíaca com fracção de ejecção normal à disfunção sistólica ventricular grave No capítulo II - O diagnóstico da insuficiência cardíaca: problemas e consequências previsíveis - analisamos as consequências da falta de critérios de diagnóstico consensuais para a insuficiência cardíaca em todo o seu espectro, ao longo do tempo. As dificuldades de diagnóstico reflectem-se nos resultados resultados dos estudos epidemiológicos. Vivemos essa dificuldade quando necessitámos de definir critérios de diagnóstico exequíveis no ambulatório, abrangendo todos os tipos de insuficiência cardíaca e de acordo com as Recomendações, para o programa EPICA –EPidemiologia da Insuficiência Cardíaca e Aprendizagem – desenhado para os Cuidados Primários de Saúde. No artigo 3 – Epidemiologia da insuficiência cardíaca e Aprendizagem – desenhado para os Cuidados Primários de Saúde. No artigo 3 – Epidemiologia da insuficiência cardíaca – discutimos as consequências dos grandes estudos epidemiológicos terem adoptado ao longo dos anos definições e critérios de diagnóstico muito variáveis,conduzindo a valores de prevalência e incidência da doença por vezes também muito diferentes. O problema agudiza-se quando se fala em insuficiência cardíaca com fracção de ejecção normal ou com disfunção diastólica, ou ainda em rastreio da disfunção cardíaca assintomática, situações para as quais tem sido extraordinariamente difícil consensualizar critérios de diagnóstico e estratégias. É notória a ausência de grandes estudos de terapêutica no contexto da insuficiência cardíaca com fracção de ejecção normal ou com disfunção diastólica que, à falta de Recomendações terapêuticas baseadas na evidência, continuamos a tratar de acordo com a fisiopatologia. Assim, discrepâncias provavelmente mais relacionadas com os critérios de diagnóstico utilizados do que com diferenças reais entre as populações, dificultam o nosso entendimento quanto ao real peso da insuficiência cardíaca e da disfunção ventricular assintomática. Também comprometerão certamente a correcta alocação de recursos para necessidades que, na realidade, conhecemos mal. O artigo 4 – Prévalence de l’ insuffisance cardiaque au Portugal – apresenta o desenho dos estudos EPICA e EPICA-RAM. O EPICA foi dos primeiros estudos a avaliar a prevalência da insuficiência cardíaca sintomática global, na comunidade, de acordo com os critérios da Sociedade Europeia de Cardiologia. Definimos critérios ecocardiográficos de disfunção cardíaca para todos os tipos de insuficiência cardíaca, nomeadamente para as situações com fracção de ejecção normal, numa época em que ainda não havia na literatura Recomendações consensuais. No artigo 5 – Prevalence of chronic heart failure in Southwestern Europe: the EPICA study - relatamos a prevalência da insuficiência cardíaca em Portugal con-supra-diagnosticada em 8,3%. A codificação hospitalar falhou uma percentagem significativa de doentes com insuficiência cardíaca, minimizando assim o peso da síndrome, com eventual repercussão na alocação dos recursos necessários ao seu manejo no hospital e para a indispensável interface com os Cuidados Primários de Saúde. No artigo 8 – Tratamento da insuficiência cardíaca em hospitais portugueses: resultados de um inquérito – todos os inquiridos relataram dificuldades no diagnóstico atempado da insuficiência cardíaca. Os Directores dos Serviços de Cardiologia reclamam mais recursos humanos vocacionados e estruturas hospitalares especializadas no diagnóstico e tratamento da síndrome, enquanto que os Directores dos Serviços de Medicina necessitam de facilidades de acesso aos métodos complementares de diagnóstico como a ecocardiografia e de maior apoio do Cardiologista. As dificuldades no diagnóstico da insuficiência cardíaca,a todos os níveis de cuidados, acarretam assim consequências epidemiológicas, sócio-económicas e financeiras nefastas para o doente individual, a planificação do Sistema Nacional de Saúde e para a Saúde Pública No capítulo III relembramos a importância do diagnóstico completo da insuficiência cardíaca que, para além do diagnóstico sindromático e anatomo-funcional, deverá incluir o diagnóstico etiológico, e das comorbilidades. Muitos destes aspectos podem comprometer a interpretação dos exames complementares de diagnóstico e, não raramente, as indicações dos fármacos que influenciam a sobrevida dos doentes, a estratégia terapêutica e o prognóstico da síndrome Conscientes das dificuldades no diagnóstico da insuficiência cardíaca nos Cuidados Primários de Saúde e do papel preponderante dos especialistas em Medicina Familiar na contenção da epidemia, propusemo-nos, como objectivos secundários do estudo EPICA (artigo 5), investigar a acuidade diagnóstica dos instrumentos à disposição daqueles colegas, na prática clínica diária: a clínica e os exames complementares de diagnóstico de primeira linha. O artigo 10 – The diagnosis of heart failure in primary care: value of symptoms and signs - documenta o valor limitado dos sinais, sintomas e dados da história pregressa, quando usados isoladamente, no diagnóstico da síndrome. Todos têm baixa sensibilidade para o diagnóstico. Têm maior valor preditor os associados às situações congestivas, mais graves: a dispneia paroxística nocturna (LR 35,5), a ortopneia (LR 39,1), a dificuldade respiratória para a marcha em plano horizontal (LR 25,8), o ingurgitamento jugular > 6 cm com hepatomegalia e edema dos membros inferiores (LR 130,3), que estão raramente presentes na população de insuficientes cardíacos do ambulatório (sensibilidade <10%). O galope ventricular (LR 30,0), a taquicardia >110ppm (LR 26,7) e os fervores crepitantes (LR 23,3) também estão associados ao diagnóstico, mas são também pouco frequentes na população estudada (sensibilidade < 36%). São ainda preditores do diagnóstico o tratamento prévio com digitálico (LR 24,9) e/ou com diurético (LR 10,6), uma história prévia de edema pulmonar agudo (LR 54,2) ou de doença das artérias coronárias (LR 7,1). No artigo 11- Aetiology, comorbidity and drug therapy of chronic heart failure in the real world: the EPICA substudy - confirmámos que a hipertensão arterial é, de entre os factores de risco e/ou etiológicos, a causa mais frequente de insuficiência cardíaca no ambulatório, em Portugal (80%). Trinta e nove por cento dos doentes do estudo EPICA têm história de doença coronária e 15% de fibrilhação auricular. Quantificámos a comorbilidade e analisámos a sua potencial influência no facto da prescrição terapêutica estar aquém das Recomendações internacionais em Portugal, como aliás em toda a Europa. No artigo 12 - The value of electrocardiogram and X-ray for confirming or refuting a suspected diagnosis of heart failure in the community – demonstrámos que os dados do ECG e do RX do tórax não permitem predizer o diagnóstico de insuficiência cardíaca na comunidade; 25% dos doentes com insuficiência cardíaca objectiva tinham ECG ou RX do tórax normais. No artigo 13 - Evaluation of the performance and concordance of clinical questionnaires for heart failure in primary care - comparámos sete questionários e sistemas de pontuação habitualmente utilizados nos grandes estudos, para o diagnóstico da insuficiência cardíaca. Mostraram ter, na sua maioria, uma concordância razoável ou boa entre si. Foram muito específicos (>90%) mas pouco sensíveis. Aumentaram a probabilidade do diagnóstico de 4,3% pré-teste para 25 a 30% pós-teste. Revelaram-se um melhor instrumento para a exclusão da causa cardíaca dos sintomas do que para o diagnóstico da síndrome O artigo 14 - Epidemiologia da insuficiência cardíaca em Portugal continental: novos dados do estudo EPICA – compara as características dos doentes com suspeita clínica, não comprovada, de insuficiência cardíaca (falsos positivos), com os casos de insuficiência cardíaca. Os primeiros são mais idosos, mais mulheres, com mais excesso de peso, menos história de doença das artérias coronárias. Confirma ainda que a clínica, o ECG e o Rx tórax não permitem diferenciar os doentes com insuficiência cardíaca por disfunção sistólica ventricular daqueles que têm fracção de ejecção normal. Perante o desafio do diagnóstico da insuficiência cardíaca com fracção de ejecção normal, as dificuldades de acesso à ecocardiografia na comunidade e os custos acrescidos do exame, pretendemos averiguar no artigo 15 - The diagnostic challenge of heart failure with preserved systolic function in primary care setting: an EPICA-RAM sub-study - o desempenho do BNP no rastreio dos doentes com a suspeita clínica do diagnóstico, a enviar para ecocardiografia. Testámos o desempenho do teste como preditor do diagnóstico clínico da insuficiência cardíaca com função sistólica preservada, bem como dos indicadores ecocardiográficos de disfunção diastólica utilizados no estudo: dilatação da aurícula esquerda e hipertrofia ventricular esquerda. O teste apenas foi bom preditor da dilatação da aurícula esquerda, mas não do diagnóstico clínico deste tipo de insuficiência cardíaca, nem da presença de hipertrofia ventricular esquerda diagnosticada por ecocardiografia (área abaixo da curva ROC: 0,89, 0,56 e 0,54 respectivamente). Concluímos que, isoladamente, não será um bom método de rastreio da doença na comunidade, nem poderá substituir o ecocardiograma no doente com a suspeita clínica do diagnóstico, pelo menos nas fases precoces, pouco sintomáticas da doença. Estudámos e comparámos o desempenho dos peptídeos natriuréticos do tipo B - BNP e NT-proBNP - no diagnóstico da insuficiência cardíaca sintomática, por disfunção sistólica e com fracção de ejecção preservada, no internamento hospitalar. Avaliámos doentes e voluntários normais, de forma a estabelecermos os cut-off do nosso laboratório. Relatámos os resultados deste trabalho no artigo 16 – Valor comparativo do BNP e do NT-proBNP no diagnóstico da insuficiência cardía-ca. Ambos os testes tiveram um excelente desempenho no diagnóstico da insuficiência cardíaca sintomática, em meio hospitalar, mas nenhum foi capaz de diferenciar a insuficiência cardíaca com disfunção sistólica ventricular da que tem fracção de ejecção normal Revimos, à luz do conhecimento actual, o desempenho dos diferentes exames complementares, nomeadamente dos peptídeos natriuréticos e da ecocardiografia, no diagnóstico da insuficiência cardíaca sintomática global, por disfunção sistólica ventricular e com fracção de ejecção normal e discutimos os critérios mais recentemente propostos e as últimas Recomendações internacionais Discutimos as estratégias propostas para o rastreio da disfunção ventricular assintomática que é, na comunidade, pelo menos tão frequente quanto a sintomática. Existe evidência de que tratar precocemente a disfunção ventricular sistólica assintomática se traduz em benefícios reais no prognóstico e, tal como no caso da disfunção sistólica sintomática, é custo-eficiente. Autilização do método padrão para o rastreio da disfunção cardíaca na população obrigaria à realização de ecocardiograma a todos os indivíduos, o que é técnica e economicamente incomportável. Vários estudos têm vindo a testar diversas estratégias alternativas, na procura de uma metodologia que seja, também ela, custo-eficiente. Os autores são unânimes no aspecto em que nenhum exame, quando avaliado isoladamente, foi útil para o rastreio da disfunção cardíaca. Contudo apontam para o ECG e/ou os peptídeos natriuréticos, integrados ou não em esquemas de pontuação clínica, como testes úteis para o pré-rastreio para ecocardiografia. Permitem diminuir os pedidos de ecocardiograma e os custos do rastreio, que se torna tão custo-efectivo quanto o do cancro da mama ou do colo do útero. Alguns autores preconizam ainda a avaliação qualitativa da disfunção cardíaca por ecocardiograma portátil, no contexto de ECG anómalo ou de peptídeo natriurético elevado, antes da referenciação para o ecocardiograma completo. Apontam esta estratégia como sendo a mais custo-eficiente para o rastreio da disfunção cardíaca. Finalmente, tecemos alguns comentários finais quanto a perspectivas de futuro para o manejo da insuficiência cardíaca. É premente estabelecer uma definição precisa e universal da síndrome e critérios de diagnóstico consensuais, claros, objectivos, simples e reprodutíveis para todo o espectro da insuficiência cardíaca, para que possamos num futuro próximo avaliar de forma correcta a extensão do problema, organizar cuidados médicos eficientes e acessíveis a todos e melhorar o prognóstico dos doentes, numa política imprescindível e inevitável de contenção dos custos. Perante os problemas de diagnóstico da síndrome no ambulatório, consideramos ser necessário implementar programas de formação continuada e facilitar o diálogo e a colaboração entre Cuidados Primários de Saúde e Unidades especializadas no manejo da doença, à imagem do que fizemos pontualmente aquando do programa EPICA e do que está a ser desenvolvido em vários países europeus e nos Estados Unidos da América, sob a forma de redes alargada de prestação de cuidados, para a insuficiência cardíaca. As clínicas de insuficiência cardíaca, a laborar sobretudo em meio hospitalar, já deram provas quanto à maior conformidade do diagnóstico (e tratamento) de acordo com as Recomendações, assim como na melhoria da qualidade de vida e sobrevida dos doentes. No artigo 17 - Implementar as Recomendações na prática clínica: benefícios de uma Unidade de Insuficiência Cardíaca Aguda - relatamos a nossa experiência quanto à melhoria da qualidade dos cuidados prestados, nas áreas do diagnóstico e tratamento, numa unidade funcional dedicada ao internamento dos doentes com insuficiência cardíaca aguda. Defendemos que estas áreas específicas de internamento se devem articular com outras,nomeadamente hospitais de dia de insuficiência cardíaca, podendo ou devendo até ser diferentes na sua estrutura e recursos, de acordo com as necessidades das populações no seio das quais são implementadas. Cabe-lhes um papel determinante na interacção com os Cuidados Primários de Saúde, na formação médica continuada e de outros profissionais de saúde e na recepção e orientação dos doentes referenciados para a especialidade.São ainda necessários esforços redobrados para a identificação e controlo dos factores de risco e para o estabelecimento de estratégias de rastreio da disfunção ventricular na comunidade. Tal é passível de ser feito e é custo-eficiente, mas exige a colaboração de técnicos de saúde, investigadores e poder político para avaliar das necessidades reais, implementar e controlar a qualidade destas estratégias, sem as quais não conseguiremos conter a epidemia. SUMMARY: Despite there has been substantial progress in the treatment of heart failure over the last several decades, it is the only cardiovascular disorder that continues to increase in both prevalence and incidence. Characterised by very poor survival and quality of life heart failure is responsible for among the highest healthcare costs for single conditions in developed countries. Heart failure is therefore becoming an increasing concern to healthcare worldwide and must be a priority to National Health Services. It is already called the epidemic of the 21 st century. A correct diagnosis is the cornerstone leading to effective management of the syndrome. An early, accurate and complete diagnosis has become crucial with the identification of therapies that can delay or reverse disease progression and improve both morbidity and mortality. Diagnostic methods may need to encompass screening strategies, as well as symptomatic case identification. Until now, investigation has been over focused on pharmacological treatment; relatively little work has been done on assessing diagnostic tools. This is actually a difficult condition to diagnose at all levels of care, and misdiagnosis must be the first barrier to the control of the epidemic. AIMS Considering current and up-dated knowledge and ourown experience we analyse the problems in diagnosing heart failure and cardiac dysfunction and how they affect patient’s clinical outcome and public health care. It was our aim to analyse how increasing knowledge about cardiac dysfunction influenced the concept of heart failure, its definition and diagnostic criteria; the problems resulting from the use of non consensual definitions and diagnostic criteria; the role of clinical data and diagnostic tests on the diagnosis of the syndrome and on the screening for cardiac dysfunction in the community; to discuss best strategies to enhance diagnostic management of heart failure in all its spectrum, in order to halt the epidemic in the near future. METHODS: The investigation on which the present dissertation is based was developed progressively, along the years, during our every-day clinical practice. Various original clinical investigations and review papers, related to challenges in heart failure management and especially to diagnosis, were presented in scientific meetings and/or published gradually as partial results were obtained. The EPICA Programme (epidemiology of heart failure and awareness), a large-scale epidemiological study on heart failure in Portugal, addressed as secondary endpoints, problems of heart failure misdiagnosis in primary care and the value of clinics and different diagnostic tests to confirme or refute the diagnosis of the syndrome suspected on clinical grounds. But problems on the diagnosis of heart failure are not confined to primary care. Therefore, under the auspices of the Working Group of Heart Failure of the Portuguese Society of Cardiology, a survey on the management of heart failure at hospital was addressed to the heads of Portuguese Cardiology and Internal Medicine Wards. Compliance with Guidelines on diagnosis and treatment of heart failure, perceived difficulties and requests to a better management of the syndrome were ascertained. We have then explored the validity of a coded diagnosis of heart failure at death/discharge from the Department of Medicine of S. Francisco Xavier Hospital, and the rate of misdiagnosis. Gains on compliance with Guidelines on the diagnosis and treatment of heart failure, before and after the implementation of an acute heart failure unit in this Department were assessed. We also compared the performance of type-B natriuretic peptides – BNP and NT-proBNP – on systolic and diastolic heart failure diagnosis, in order to implement the more adequate test. In this thesis we discuss our published papers against the state of the art on heart failure diagnosis, and actual consequences of misdiagnosing. We revisit the accuracy of the different diagnostic testes to a definite diagnosis of the disease. Finally we analyse the different ways of screening for cardiac TESE3 AF 6/9/08 12:25 PM Page 309 310 Summary dysfunction and the more cost-efficient strategies to enhance heart failure diagnosis and management. RESULTS Since 1982, at the very beginning of our clinical activity, already aware of the complexity of the management of heart failure, we were involved in the development of an original pathophysiological heart failure classification, theme of Professor Fátima Ceia Doctoral Thesis discussed in 1989. Paper 1 - Heart Failure. New pathophysiological approach to therapy – published in 1984, described heart failure as a systemic disease resulting from the interaction of the different compensatory mechanisms. We proposed a new dynamic, pathophysiological and aetiological approach to the diagnosis of heart failure syndromes, based on clinics and conventional non-invasive assessment with drug management implications. In 1994, in paper 2 – Heart failure and the physician - towards the XXI century – we discussed the way how the compensatory mechanisms interact, produce the different heart failure syndromes and affect the evolution of the disease. Changing definitions according to the knowledge of the pathophysiology of heart failure at that time were revisited. The need for a universally accepted definition leading to early and accurate diagnosis and treatment of the syndrome was pointed-out. We called for strategies to prevent heart failure. In an up-dated review titled: Heart failure: from pathophysiology to clinics – a model in constant evolution – we revisit the changing pathophysiological models of heart failure – cardio-renal, haemodynamic, neuro-hormonal and imuno-inflamatory models - and their influence on the definition of the syndrome. Traditional dicotomization of heart failure in systolic and diastolic dysfunction is discussed. Rather than being considered as separate diseases with a distinct pathophysiology, systolic and diastolic heart failure may be merely different clinical presentations within a phenotypic spectrum of one and the same disease. Implications for the definition and diagnosis of heart failure are self evident. In chapter II – The diagnosis of heart failure: problems and foreseeable consequences - we analyse epidemiological, clinical and financial consequences of non consensual definition and diagnostic criteria of heart failure for individual patients, Healthcare Systems and Public Health. Problems resulting from the absence of a universally accepted definition of heart failure are clearly illustrated by current epidemiological data and were revisited in paper 3 – Epidemiology of heart failure. In various epidemiological studies measured prevalence and incidence of the syndrome diverge significantly. This worrying variation is certainly more due to different definitions and used diagnostic criteria than true differences between populations. We faced these difficulties when we had to design the EPICA programme, a large population-based study where we had to define simple, effective and easy to obtain diagnostic criteria of heart failure, for the whole spectrum of the disease, in primary care setting. The problem grew when we focused on heart failure with normal ejection function where diagnostic criteria were far from consensual. Therefore large trials on heart failure with normal ejection fraction and consensual evidence-based Guidelines on diagnosis and treatment of diastolic heart failure are still missing. Paper 4 – Prevalence of heart failure in Portugal - presents the design of the EPICA Programme. The EPICA study was one of the first large epidemiological studies addressing the prevalence of global heart failure, in the community, according to the European Guidelines for the diagnosis of the syndrome. We had to define simple, precise echocardiographic criteria to confirm a suspected diagnosis of heart failure on clinical grounds, in all its spectrum. At that time, Guidelines for heart failure with normal ejection fraction where far from consensual and non applicable to the ambulatory. In paper 5 - Prevalence of heart failure in Southwestern Europe: the EPICA study - we reported the prevalence of heart failure in mainland Portugal. From 5434 attendants of primary care centres, representative of the Portuguese population above 25 years, 551 had heart failure, leading to a prevalence of global heart failure of 4.35%, increasing sharply with age in both genders; 1.36% had systolic dysfunction and 1.7% normal ejection fraction. TESE3 AF 6/9/08 12:25 PM Page 310 Summary 311 In paper 6 – Epidemiology of heart failure in primary care in Madeira: the EPICA-RAM study - we report an overall prevalence of heart failure of 4.69%, with systolic dysfunction in 0.76% and with a normal ejection fraction in 2.74% of the cases. Discrepancies in the prevalence of the different types of heart failure between mainland and Madeira are probably related to different Public Health Care organization. Both studies showed that only half of the patients with a suspected diagnosis of heart failure on clinical grounds had the diagnosis confirmed by objective evidence of cardiac dysfunction. It’s therefore probable that unnecessary drugs were prescribed to patients who didn’t need them while others, who would benefit, were not correctly treated for heart failure. Paper 7 – Diagnosis of heart failure in primary care – is a review of the state of the art of the diagnosis of heart failure in primary care setting. It focused on main challenges faced by primary care physicians, namely difficulties on the access to imaging and strategies to screen for cardiac dysfunction. General practitioners awareness and training on the diagnosis and treatment of the syndrome are crucial to halt the epidemic. But problems on the diagnosis of heart failure are not exclusive of primary care. Heart failure is the first cause of hospitalization of patients above 65 years in medical wards, and accounts for more than 70% of the costs with the syndrome. In paper 9 – Validity of a diagnosis of heart failure: implications of misdiagnosing – we reported a prevalence of heart failure in patients hospitalized in our Medicine Department, during a six month period, of 17%. The diagnosis was actually sub-coded at death /discharge. The accuracy of the death / discharge coded diagnosis was 72.2%; the syndrome was under-diagnosed in 21.1% of the cases and over-diagnosed in 8.3%. The discharge codes failed a significant percentage of heart failure cases, biased the actual burden of the syndrome and compromise the allocation of resources to manage in-hospital heart failure and to develop specialised programmes of interaction with primary care. In paper 8 – Treatment of heart failure in Portuguese hospitals: results of a questionnaire – everybody reported difficulties in the management of heart failure. Heads of Cardiology Wards needed more specialised physicians and nurses as well as specific heart failure units for the management of the syndrome, and Heads of Internal Medicine Wards demand more facilities, easier access to echocardiography, and support from heart failure specialised cardiologists. Difficulties in the diagnosis of heart failure at all levels of care, have huge epidemiological, clinical and economic consequences for the individual patient, National Health Services and Public Health. In chapter III, we revisit the relevance of a complete diagnosis of heart failure. An appraisal based on symptoms alone is clearly an incomplete and inaccurate representation of the severity of cardiovascular disease. Determination of cardiac status requires evaluation of composite etiologic, anatomic, and physiologic diagnoses. Functional class and comorbidities must complement the diagnosis, leading to the more appropriate and individualized treatment. Aware of the uncertainty of the diagnosis of heart failure in primary care setting and of the role of General Practitioners in the management of the syndrome, we have evaluated in pre-specified substudies of the EPICA programme, the accuracy of clinics and tests available to the diagnosis of heart failure in the community. Paper 10 – The diagnosis of heart failure in primary care: value of symptoms and signs – confirmed that symptoms and signs and clinical history have limited value in diagnosing heart failure when used alone. The signs and symptoms that best predicted a diagnosis of heart failure were those associated with more severe disease. Among current symptoms, the history of paroxysmal nocturnal dyspnoea (LR 35.5), orthopnea (LR 39.1) and dyspnoea when walking on the flat (LR 25.8) were associated with a diagnosis of heart failure. However, these symptoms were not frequent within this population (sensitivity < 36%). Jugular pressure > 6 cm with hepatic enlargement, and oedema of the lower limbs (LR 130.3), a ventricular gallop (LR 30.0), a heart rate above 110 bpm (LR 26.7), and rales (LR 23.3), were all associated with a diagnosis of heart failure but TESE3 AF 6/9/08 12:25 PM Page 311 312 Summary were infrequent findings (sensitivity < 10%). Prior use of digoxin (LR 24.9) and/or diuretics (LR 10.6), an history of coronary artery disease (LR 7.1) or of pulmonary oedema (LR 54.2) were also associated with a greater likelihood of having heart failure. In paper 11 – Aetiology, comorbidity and drug therapy of chronic heart failure in the real world: the EPICA substudy – aetiological features and therapy relevant comorbidities were analysed. Hypertension was the more frequent risk factor/aetiology of heart failure in the community in Portugal (about 80%). Thirty nine percent had an history of coronary artery disease, and 15% had atrial fibrillation. In paper 12 – The value of electrocardiogram and X-ray for confirming or refuting a suspected diagnosis of heart failure in the community – we reported that ECG and X-ray features are not sufficient to allow heart failure to be reliably predicted in the community. Twenty five percent of patients with heart failure had a normal ECG or chest X-ray. In paper 13 – Evaluation of the performance and concordance of clinical questionnaires for heart failure in the primary care – we compared the accuracy of seven clinical questionnaires and scores for the diagnosis of heart failure in the community, and their concordance. Concordance was good between most of the questionnaires. Their low sensibility impairs their usefulness as diagnostic instruments, but their high specificity (>90%) makes them useful for the identification of patients with symptoms and signs from non-cardiac cause. In paper 14 – Epidemiology of heart failure in mainland Portugal: new data from the EPICA study -characteristics of patients with a definite diagnosis of heart failure and of those in whom the diagnosis of heart failure suspected on clinical grounds was excluded (false positive) were compared. The laters were older, more frequently women, had excessive weight, and a history of coronary artery disease was less frequent. Clinics, ECG and chest X-ray could not distinguish patients with heart failure due to systolic dysfunction from those with normal ejection fraction. Considering the limited and costly access to echocardiography in the community we address in paper 15 - the diagnostic challenge of heart failure with preserved systolic function in primary care: an EPICA-RAM substudy. The performance of BNP as a predictor of a diagnosis of heart failure with preserved systolic function according to ESC Guidelines, left ventricular hypertrophy and dilated left atria by echocardiography was tested. BNP was a good predictor of a dilated left atria, but not of the diagnosis of heart failure with preserved systolic function or of left ventricular hypertrophy (AUC: 0.89, 0.56, and 0.54 respectively). We conclude that BNP measurement alone was not a suitable screening test for heart failure with normal ejection fraction in the community, at least in patients with no or mild symptoms.In paper 16 – Comparative value of BNP and NTproBNP on the diagnosis of heart failure – we first established normal values and cut-offs for our laboratory.Then we assess the diagnostic accuracy of both peptides for the in-hospital diagnosis of heart failure due to systolic dysfunction and with normal ejection fraction. BNP and NT-proBNP had an excellent and similar accuracy to the diagnosis of both types of symptomatic heart failure, but none could distinguish patients with systolic heart failure from those with normal ejection fraction. We revisited the role of the various tests on the diagnosis of heart failure with systolic dysfunction, and with normal ejection fraction and discussed the more recent International Guidelines. There is a great piece of evidence that early treatment of asymptomatic left ventricular systolic dysfunction is cost-effective. Therefore, several screening strategies were investigated. ECG and type B natriuretic peptides measurements, alone or as part of clinical scores, allowed cost-effective community-based screening for left ventricular systolic dysfunction, especially in high-risk subjects. A programme including hand-held echocardiography, following NT-proBNP or ECG pre-screening prior to traditional echocardiogram was the most cost-effective.Screening strategies for left ventricular dysfunction proved no more costly than existing screening programmes such as those for cervical or breast cancer. Conversely, as far as we know, there is no proven strategy to efficiently screen for diastolic dysfunction in the community.Finally we discuss perspectives for heart failure TESE3 AF 6/9/08 12:25 PM Page 312 Summary 313 management in the near future. Simple, reliable and consensual diagnostic procedures are crucial to evaluate the actual burden of the disease, to comply with Guidelines and to reduce healthcare utilisation and costs. As the management of the syndrome in primary care has been hampered by perceived difficulties in diagnosis, improving diagnostic skills is essential and remains a continuous challenge for primary care clinicians. Moreover, patients may require more investigations and treatments that may not be available or very familiar to General Practitioners. Shared care is therefore necessary. Disease management programmes when available and accessible, are the preferred choice to address this issue. This multidisciplinary model of care delivered in specialized heart failure clinics, heart failure day hospitals and many other heart failure care stru-ctures, have shown success in improving quality of life, and reducing morbi-mortality and costs. In paper 17 - Translating Guidelines into clinical practice: benefits of an acute heart failure unit - we report a better compliance with Guidelines on diagnosis and treatment of heart failure after the implementation of a specialized heart failure unit in our Internal Medicine Department. We defend the implementation of heart failure programme management networks to provide optimal care for both patients and health care providers. They may consist of different structures to better address the needs of the referred patient, the referral physician and the regional health care system, and should have a crucial role in transition between primary and secondary care. Managing heart failure requires resources across the entire spectrum of care. Strategies to prevent heart failure include both primary and secondary prevention, and should encompass risk factors control and screening strategies for cardiac dysfunction in the community. Screening for high risk patients and, at least, for patients with asymptomatic systolic dysfunction is cost effective. Therefore, to improve heart failure outcomes and halt the epidemic, this will require shared efforts from investigators, clinicians and politicians. Health care strategy with adequate funding are imperative for successfull heart failure management. RÉSUMÉ: L’insuffisance cardiaque, déjà appelée d’épidémie du XXIeme siècle, est un problème de Santé Publique partout en Europe. Malgré les immenses progrès faits dans le domaine du traitement, dans les deux dernières décennies, l’insuffisance cardiaque est parmi les maladies cardiovasculaires la seule dont l’incidence et prévalence ne cessent d’augmenter. Ses principales caractéristiques sont une mortalité très élevée -supérieure à celle de l’ensemble des cancers - et un impact économique considérable sur les Systèmes de Santé. La prise en charge des insuffisants cardiaques doit ainsi être envisagée comme une priorité absolue. Toutefois, et bien que la sévérité de la situation soit universellement reconnue, Gouvernements et Systèmes de Santé n’ont pris que très peu de mesures concrètes, visant à freiner l’épidémie qui ne cesse de croître. Nous pouvons aujourd’hui prévenir et, sinon guérir l’insuffisance cardiaque, du moins la traiter de façon à freiner la progression de la maladie, ainsi nous soyons capables de faire le diagnostique à temps. Toute attitude térapêutique présume un diagnostique précoce et complet de la situation, sans lequel nulle attitude correcte ne pourra être prise. OBJECTIFS: Nous nous proposons analyser les problèmes du diagnostique de l’insuffisance cardiaque, à la lumière des connaissances actuelles et de notre propre expérience. Parmi les objectifs de ce travail, nous avons évalué la façon d’ont l’évolution des concepts d’insuffisance et de dysfonction cardiaque a influencé la définition et les critères de diagnostique, au cours des temps, et les conséquences du manque de consensus quant à la définition et aux critères de diagnostique pour les différentes phases d’évolution de la maladie. Nous avons discuté le rôle des symptômes, signaux et examens complémentaires dans le diagnostique de l'insuffisance cardiaque et dans les stratégies de screening de la dysfonction cardíaque. Finalement nous avons discuté quelques chemins et possibles stratégies à envisager pour la prise en charge de ces malades pour que, dans un future proche, nous soyons capables de mieux les traiter, mais aussi de mieux prévenir la maladie de façon à freiner l’épidémie. MÉTHODOLOGIE: La méthodologie utilisée pour ce travail dérive directement de l’expérience acquise dans la prise en charge des malades, et de l’investigation gérée par les difficultés perçues quant au diagnostique de l’insuffisance cardiaque, au long des années. Quand de l’élaboration de l’étude EPICA née de la nécessité d’obtenir des données épidémiologiques nationales en ce qui concerne l’insuffisance cardiaque au Portugal, nous avons conçu, selon un dessin original, un protocole d’investigation qui nous a permis d’évaluer la qualité du diagnostique de l’insuffisance cardiaque réalisé par les médecins de famille ainsi que le rôle des symptômes, des signaux, des données de l´histoire clinique, de l’électrocardiogramme e de la radiographie du thorax, dans le diagnostique de l’ insuffisance dans l’ambulatoire. Nous avons aussi investigué la qualité du diagnostique établi pendant l’hospitalisation. Nous avons déterminé la réelle prévalence de l’insuffisance cardíaque hospitalisée dans notre service au long de six mois et celle qui a été codifiée au moment de la sortie de l´hôpital. Nous avons encore comparé la qualité do diagnostique avant et après l’ouverture d’une unité d’insuffisance cardiaque et la performance des différents peptides natriurétiques dans le diagnostique du syndrome. Sous la forme de réponse à un questionnaire, qui leur a été adressé par le Groupe de Travail d’insuffisance cardiaque de la Société Portugaise de Cardiologie, sur la prise en charge de l’insuffisance cardiaque, les Directeurs des Services de Cardiologie et Médicine Interne de tout le Pays se sont prononcés sur à leurs difficultés, en ce qui concerne le diagnostique et le traitement de l’insuffisance cardiaque. Les résultats des investigations partielles ont été communiqués à la communauté scientifique et publiés dans les journaux de la spécialité, au long de ces dernières années. Cette dissertation est constituée par les papiers publiés et en publication auxquels nous avons additionné une révision de l’état actuel de l’art du diagnostique de l’insuffisance cardiaque, ainsi q’une réflexion sur les 317 TESE3 AF 6/9/08 12:25 PM Page 317 318 Résumé conséquences des difficultés éprouvées au diagnostique de la maladie et sur la manière d’améliorer la prise en charge de l’insuffisance cardiaque.RÉSULTATS: En 1982, l’hors de notre début d’activité, nous avons eu très tôt la perception de la complexité de l’insuffisance cardiaque et du défi que constituait, pour les cliniciens, la prise en charge de ces malades. Nous avons participé au développement d’une classification physiopathologique originale qui a servi de base pour le doctorat de la Professeur Fátima Ceia en 1989. L’article 1 – Insuffisance cardiaque : nouveaux concepts physiopathologiques et leurs applications thérapeutiques – publié en 1984, nous décrivons déjà l’insuffisance cardiaque comme une maladie systémique, résultat de l’interaction des différents mécanismes de compensation de la dysfonction cardiaque. Nous proposons « une classification physiopathologique avec application thérapeutique » originale, où nous définissons les différents types d’insuffisance cardiaque et leurs caractéristiques cliniques, hémodynamiques, fonctionnelles et anatomiques et proposons un traitement individualisé d’accord avec la définition et le diagnostique de chacun de ces différents types d’insuffisance cardiaque. En 1994, l’article 2 – L’insuffisance cardiaque et le clinicien à la fin du XXème siècle – fait une description détaillée de comment les différents mécanismes de compensation interagissent, influencent l’évolution de la maladie, produisent les différents syndromes et justifient le choix du type de traitement. Nous discutons l’évolution de la définition de la maladie d’accord avec l’évolution de l’investigation et une meilleure connaissance de la physiopathologie de la dysfonction cardiaque. Nous soulignons la nécessité du diagnostique et du traitement précoces et quant urgent il est de développer des stratégies capables de prévenir la maladie. Les investigateurs défendent aussi l’existence d’un continu entre l’insuffisance cardiaque à fraction d’éjection normale e celle qui s’accompagne de dysfonction systolique ventriculaire. Ce concept défend l’existence de plusieurs syndromes d’insuffisance cardiaque qui ne représenteront que des phénotypes différents d’une même maladie. Des nouvelles Recommandations pour le diagnostique et exclusion de l’insuffisance cardiaque à fraction d’éjection normale / dysfonction diastolique surgissent. Nous revisitons ces nouveaux concepts dans le chapitre: L’insuffisance cardiaque: de la physiopathologie à la clinique - un modèle en constante évolution. Au chapitre II – Le diagnostique de l’insuffisance cardiaque: problèmes et conséquences prévisibles - nous analysons les conséquences du manque de critères de diagnostique consensuels pour l’insuffisance cardiaque au long de tout son spectre. Les difficultés avec le diagnostique se répercutent sur les résultats des grandes études épidémiologiques. Nous avons senti cette difficulté quand, lors de l’élaboration du programme EPICA – ÉPidémiologie de l’Insuffisance Cardiaque et Apprentissage - nous avons voulu définir les critères pour le diagnostique de l’insuffisance cardiaque de tous les types, applicables à l’ambulatoire et d’accord avec les Recommandations Internationales. L’article 3 - Épidémiologie de l’insuffisance cardiaque – analyse les conséquences des différentes définitions et critères de diagnostique utilisés dans les grandes études épidémiologiques qui, au long des années, ont publié des prévalences et incidences très variables de l’insuffisance cardiaque. Ce problème s’aggrave encore quand il s’agit de l’épidémiologie de l’insuffisance cardiaque à fraction d’éjection normale ou dysfonction diastolique, ou des stratégies pour le screening de la dysfonction cardiaque asymptomatique, situations à définitions et critères encore moins consensuels. L’inexistence de Recommandations appuyées sur l’évidence, pour le traitement de l’insufisance cardiaque à fraction d’éjection normale ou à dysfonction diastolique, est une autre des conséquences de ces difficultés. C’est ainsi que des différences de méthodologie, de définitions et de critères de diagnostique, plutôt que des différences réelles entre les populations, difficultent notre connaissance quant à la réelle surcharge que l’insuffisance cardiaque et la dysfonction cardiaque imposent au Système National de Santé. Il est ainsi difficile de prévoir les recours nécessaires, à attribuer à une situation qui est mal connue. L’ article 4 – Prévalence de l’insuffisance cardiaque au Portugal – présente le dessin des études EPICA et EPICA-RAM. EPICA a été l’une des premières études TESE3 AF 6/9/08 12:25 PM Page 318 Résumé 319 à évaluer la prévalence de l’insuffisance cardiaque symptomatique globale, de l’ambulatoire, suivant les Recommandations de la Société Européenne de Cardiologie pour le diagnostique de l’insuffisance cardiaque. Nous y définissons des critères echocardiographiques précis pour tous les types d’insuffisance cardiaque, notamment celle à fraction d’éjection normale, alors qu’à l’époque il n’y avait pas encore de Recommandations consensuelles pour le diagnostic de cette situation. L’article 5 – Prevalence of chronic heart failure in Southwestern Europe : the EPICA study - relate la prévalence de l’insuffisance cardiaque au Portugal continental en 1998. Dans une population de 5434 individus âgés de plus 25 ans, représentative de la population portugaise nous avons identifié 551 cas d’insuffisance cardiaque, correspondant à une prévalence de 4,3%, qui augmente avec l´âge, chez les deux genres ; chez 1,3% la dysfonction ventriculaire est systolique, alors que 1,75% ont une fraction d’éjection normale. L’article 6 – Epidemiology of chronic heart failure in Primary Care in the Autonomic Region of Madeira: the EPICA-RAM study – a suivi le même protocole d’investigation et relate une prévalence de l’insuffisance cardiaque globale de 4,69%, 0,76 % à dysfonction ventriculaire systolique et 2,74% à fraction d’éjection normale. Ces deux études confirment que quand le diagnostique est suspecté par la clinique il ne se confirme objectivement qu’en la moitié des cas, ce qui fait supposer que beaucoup de malades seront sous médication inappropriée pour l’insuffisance cardiaque alors que d’autres, qui auraient tout intérêt à la faire, en seront probablement privés. L’article 7 – Diagnosis of chronic heart failure in Primary Care - revoit l’état de l’art quant au diagnostique de l’insuffisance cardiaque dans la communauté et discute les principaux défis auxquels les médecins de famille sont soumis, notamment les difficultés d’accès aux examens complémentaires de diagnostique et le screening de la dysfonction cardiaque asymptomatique dans la population en général. Mais les problèmes de diagnostique de l’insuffisance cardiaque, se posent transversalement à tous les niveaux, à l’hôpital comme chez le médecin de famille. Bien que l’insuffisance cardiaque soit la première cause d’hospitalisation après les 65 ans, responsable pour la plupart des coûts consommés par le syndrome, le diagnostique y est sous-estimé. L’article 9 – Validity of a diagnosis of heart failure : implications of misdiagnosing – démontre que l’insuffisance cardiaque a été la première cause d’hospitalisation dans notre service, pendant une période de six mois, ayant une prévalence de 17% et a été largement sous codifiée. La sous codification du diagnostique ne fait que diminuer le vrai poids du syndrome, menant à l’allocation incorrecte de recours pour la prise en charge de l’insuffisance cardiaque à l´hôpital et pour l’établissement de programmes capables de faire l’indispensable interface avec l’ambulatoire. En réponse au questionnaire sur la prise en charge de l’insuffisance cardiaque, que nous résumons dans l’article 8 – Traitement de l’insuffisance cardiaque dans les hôpitaux portugais : résultats d’un questionnaire - les Directeurs des Services de Médicine Interne ont relaté leurs difficultés d’accès à l’échocardiographie en temps utile et réclamé plus de collaboration du cardiologue; les Directeurs des Services de Cardiologie demandent plus de spécialistes et de structures vocationnées pour le diagnostique et traitement de l’insuffisance cardiaque. Les difficultés posées par le diagnostique de l’insuffisance cardiaque à tous les niveaux de soins, entraînent des conséquences épidémiologiques, socioéconomiques et financières néfastes pour le patient, la planification du Système National de Santé et la Santé Publique. Au chapitre III nous rappelons l’importance du diagnostique complet de l’insuffisance cardiaque. Au diagnostique anatomique, fonctionnel et du syndrome, il faut absolument joindre l’étiologie, la classe fonctionnelle e les comorbidités qui conditionnent souvent l’interprétation des testes de diagnostique, le traitement et le pronostique. Conscients des difficultés éprouvées para les médecins de famille, pour diagnostiquer correctement et en temps utile l’insuffisance cardiaque dans l’ambulatoire, et du rôle de ces Spécialistes en ce qui concerne la contention de l’épidémie, nous nous sommes proposés, comme objectifs secondaires de l’étude EPICA,d’investiguer la performance des instruments de diagnostique disponibles et à portée de ces cliniciens. L’article 10 – The diagnosis of heart failure in primary TESE3 AF 6/9/08 12:25 PM Page 319 320 Résumé care: value of symptoms and signs – documente les limitations des symptômes, signaux et des données cliniques, quand utilisés de forme isolée, pour le diagnostique de l’insuffisance cardiaque. Ils sont tous peu sensibles et ceux qui ont la plus grande valeur prédictive sont ceux qui s’associent aux formes congestives, plus graves, de la maladie: la dyspnée paroxysmale nocturne (LR 35,5), l’orthopnée (LR 39,1), la difficulté respiratoire pendant la marche en plan horizontal (LR 25,8), l’ ingurgitation jugulaire > 6 cm accompagnée d’ hépatomégalie e d’oedème des membres inférieurs (LR 130,3), le galop ventriculaire (LR 30,0), la tachycardie >110ppm (LR 26,7) et les crépitations pulmonaires (LR 23,3) sont ainsi associés au diagnostique, mais sont très peu fréquents chez les insuffisants cardiaques tout venant de l’ambulatoire. Un traitement antérieur avec du diurétique (LR 10,6) ou de la digoxine (LR 24,9), ou encore un épisode antérieur d’oédeme pulmonaire aigu (LR 54,2), sont d’autres prédicteurs du diagnostique. L’article 11 – Aetiology, comorbidity and drug therapy of chronic heart failure in the real world: the EPICA substudy – confirme que l´hypertension artérielle est, d’entre tous les facteurs de risque, la principale étiologie de l’insuffisance cardiaque dans l’ambulatoire au Portugal (80%). Trente neuf pourcent des malades inclus dans l’étude EPICA avaient une histoire de maladie coronarienne et 15% de fibrillation auriculaire. Nous avons encore analysé la comorbidité et son influence sur la prescription, en sachant que la prescription des médicaments recommandés pour l’insuffisance cardiaque est, au Portugal comme d’une forme générale en Europe, bien inférieur au désirable. L’article 12 - The value X- ray for confirming or refuting a suspected diagnosis of heart failure in the community – démontre que les données de l’électrocardiogramme e de la radiographie du thorax, par sois même, ne prédisent pas correctement le diagnostique de l’insuffisance cardiaque dans l’ambulatoire; 25% des insuffisants cardiaques inclus dans EPICA avaient un électrocardiogramme où une radiographie du thorax normal. Al’article 13 - Evaluation of the performance and concordance of clinical questionnaires for heart failure in primary care – nous avons comparé sept questionnaires ou scores cliniques habituellement utilisés pour le diagnostique de l’insuffisance cardiaque dans les grandes études épidémiologiques et de médicaments. Ils ont démontré avoir une concordance à peine raisonnable à bonne entre eux, et être très spécifiques (>90%) pour le diagnostique mais peu sensibles. Ils augmentent la probabilité du diagnostique de 4,3% prétest vers 25 à 30% post-test et se révèlent ainsi des instruments plus utiles dans l’exclusion d’une cause cardiaque pour les symptômes que pour le diagnostique de l’insuffisance cardiaque. L’article 14 – Épidémiologie de l’insuffisance cardiaque au Portugal continental : nouvelles données de l’étude EPICA – compare les caractéristiques des malades qui, ayant une clinique compatible avec le syndrome, ont été inclus dans EPICA mais n’avaient pas de dysfonction cardiaque objective (faux positifs), avec ceux qui ont eu leur diagnostique objectivement confirmé. Les premiers étaient plus âgés, il y avait plus de femmes, plus de poids excessif, moins de maladie coronarienne. L’investigation confirme encore que les données de l’électrocardiogramme e de la radiographie du torax ne distinguent pas les insuffisants cardiaques qui ont une dysfonction systolique ventriculaire de ceux qui ont une fraction d’éjection normale. Face au défi du diagnostique de l’insuffisance cardiaque à fraction d’éjection normale, aux difficultés d’accès à l’échocardiographie dans l’ambulatoire, au prix de l’examen et aux critères encore peu consensuels pour le diagnostique de cette situation, nous avons analysé et publié à l’article 15 – The diagnostic challenge of heart failure with preserved systolic function in primary care setting: an EPICA-RAM substudy - la valeur des peptides natriurétiques du type B, NTproBNP, comme test de triage des malades qui, parmi ceux qui présentent une clinique compatible avec le syndrome, devront confirmer objectivement le diagnostique par échocardiographie. Ainsi, nous avons évalué la performance du test comme prédicteur : du diagnostique d’insuffisance cardiaque à fraction d’éjection normale, selon les Recommandations internationales, d’hypertrophie ventriculaire gauche et de dilatation de l’auricule gauche. Le NT-proBNP n’à été bon prédicteur que de ce dernier paramètre, ce qui nous fait conclure que le test ne permet pas de trier les malades de façon à diminuer les nécessités d’échocardiographie face à une hypothèse clinique d’insuffisance cardiaque, du moins en ce qui concerne les cas peu évolués, fréquemment asymptomatiques, de TESE3 AF 6/9/08 12:25 PM Page 320 Résumé 321 l’ambulatoire. Nous avons aussi comparé la performance des peptides natriurétiques du type B - BNP et NT-proBNP – quant au diagnostique de l’insuffisance cardiaque symptomatique à dysfonction ventriculaire systolique et à fraction d’éjection normale, traitée à l’hôpital. Les résultats de cette investigation sont révélés dans l’article 16 – Comparative value of BNP and NT-proBNP for the diagnosis of heart failure. Les deux tests ont démontré une performance excelente et comparable dans le diagnostique du syndrome, mais aucun n’a été capable de distinguer les deux types d’insuffisance cardiaque. Nous avons revu et discuté l’état de l’art quant au rôle des différents examens complémentaires, notamment des peptides natriurétiques et de l’échocardiographie, dans le diagnostique des différents types d’insuffisance et de dysfonction cardiaque, ainsi que les toutes dernières Recommandations internationales. Nous avons analysé les stratégies proposées pour le screening de la dysfonction ventriculaire asymptomatique, qui est au moins aussi fréquente dans l’ambulatoire que l’insuffisance cardiaque symptomatique. Par ailleurs, l’évidence montre que le traitement précoce de la dysfonction ventriculaire asymptomatique, est efficace et diminue les coûts. Le gold standard pour le screening de la dysfonction ventriculaire imposerait la réalisation d’un échocardiogramme à toute la population, ce qui est incomportable. Plusieurs stratégies ont été investiguées, ces dernières années, à la recherche de celle qui sera la plus efficace tout en épargnant le plus possible. Tous affirment que aucun examen isolé ne pourra être suffisant pour ce screening. Par contre, l’électrocardiogramme et/ou les peptides natriurétiques, incorporés ou non en scores cliniques, sont souvent évoqués comme testes efficaces pour le pré-screening des patients à envoyer à l’échocardiographie. Son utilisation diminue le nombre ’échocardiogrammes nécessaires et la dépense, tout en étant au moins aussi efficace que le screening du cancer du sein ou du colle de l’utérus, exige un investissement qui n’est en rien supérieur. Quelques auteurs ont démontré que l'exécution d’un échocardiogramme qualitatif, fait avec un échocardiographe portable, après l’ECG ou la détermination du BNP/ NT-proBNP et avant l’échocardiogramme complet, améliore encore la stratégie pour le screening de la dysfonction cardiaque. Finalement nous terminons avec quelques commentaires concernant les perspectives futures pour la prise en charge de l’insuffisanc e cardiaque. Il est absolument urgent et primordial d’établir d’une définition précise et universelle, ainsi que de critères de diagnostique objectifs, simples et reproductibles, applicables à tout le spectre de l’insuffisance cardiaque, de façon à ce que, dans un futur proche, nous soyons capables de connaître le véritable poids de l’insuffisance cardiaque, d’organiser une prise en charge le plus efficace possible tout en respectant l’inévitable contention des dépenses publiques. Les problèmes de diagnostique de l’ambulatoire exigent que les médecins de famille disposent de programmes de formation continus et que le dialogue avec l’hôpital et les spécialistes soit facilité, tel que nous l’avons fait, de forme programmée, systématiquement,pendant le programme EPICA. Les cliniques d’insuffisance cardiaque et les programmes structurés de prise en charge de l’insuffisance cardiaque ont démontré leur efficacité. Ils permettent une meilleure implémentation des Recommandations de diagnóstique et traitement, améliorent la qualité de vie et la survie des insuffisants cardiaques qui y sont suivis. Dans l’article 17 - Translating Guidelines into clinical practice : benefits of an acute heart failure unit - nous rendons compte de notre expérience en ce qui concerne les gains obtenus quant au diagnostic et traitement des insuffisants cardiaques hospitalisés dans notre service avant et après l’ouverture d’une unité d’insuffisance cardiaque et qui nous a permi d’amelliorer la qualité des soins prêtés à ces malades. Nous défendons que ces unités spécialement vocationnées pour la prise en charge de l’insuffisance cardiaque doivent se multiplier, s’intégrer en programmes plus vastes d’organisation de soins à prêter aux insuffisants cardiaques, qui incluent notamment l´hôpital de jour et adopter des structures variables d’accord avec les nécessités des populations qu’elles servent. Ces programmes de prise en charge de l’insuffisance cardiaque pourront assumer un rôle déterminant dans la formation scientifique des médecins, spécialement des médecins de famille, dans l’interface entre les soins primaires et l’hôpital et dans la référentiation des insuffisants cardiaques. Tous les efforts pour identifier et corriger précocement les facteurs de risque cardiovasculaire et développer TESE3 AF 6/9/08 12:25 PM Page 321 Résumé des stratégies pour le screening de la dysfonction cardiaque doivent être multipliés comme stratégies de prévention. Tout cela est possible, efficace à un pris semblable à celui d’autres programmes déjà en cours, mais exige la collaboration de tous, population, professionnels de santé, investigateurs et pouvoir politique qui viabilise l’évaluation des nécessités, le montage de ces programmes multidisciplinaires, et en contrôle la qualité, de façon à ce que très vite nous puissions contrôler cette épidémie.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Relatório de estágio de mestrado em Educação Pré-Escolar e Ensino do 1º Ciclo do Ensino Básico

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dissertação de mestrado integrado em Engenharia Biomédica (área de especialização em Informática Médica)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La acelerada invención de nuevos hardware y software van modificando, casi diariamente, la percepción del mundo, y, por lo tanto, la producción cultural, permeabilizando conceptos como arte-literatura, cuadro-libro, imagen-texto. Si bien estas parejas han sido siempre objeto del discurso teórico, la discusión asume hoy una urgencia creciente al momento que las nuevas tecnologías exponen lo que estaba refugiado en el reino de la teoría. La misma forma de comprender la realidad se ve afectada por la inmediatez de estos medios. La investigación analiza la obra de diferentes autores de los nuevos medios que trabajan en torno a la problemática de la representación de la memoria en esta perspectiva contemporánea. El trabajo de investigación desarrollado en la Tesis Doctoral se centra en la forma de representación de la memoria, así como esta planteada en la obra de Chris Marker. Interesan especialmente los últimos dispositivos creados por el autor en el marco de las llamadas nuevas tecnologías y los nuevos espacios de exposición de cine. El proyecto propone un análisis en torno a la memoria que dichos discursos sugieren a través de los temas que les son propios: archivo, identidades culturales, contribución del espectador, base de datos y tratamiento tecnológico de la información. Se ha seleccionado la obra de Chris Marker por las características de realización y de discurso que permiten una amplia discusión sobre las llamadas nuevas tecnologías y el mundo que éstas representan en el nuevo espacio híbrido construido entre las artes visuales, la literatura y la tecnología.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Based on general concepts relating to risk perception, the authors summarize in this article today's knowledge of smoking risk perception. A pluridisciplinary approach (general internal medicine, public health and anthropology) allows an improved understanding of its complexity, its utility in every day clinical practice and of the questions still pending around its use and evaluation in research projects.