892 resultados para 730199 Clinical health not specific to particular organs, diseases and conditions
Resumo:
The present study compares the performance of stochastic and fuzzy models for the analysis of the relationship between clinical signs and diagnosis. Data obtained for 153 children concerning diagnosis (pneumonia, other non-pneumonia diseases, absence of disease) and seven clinical signs were divided into two samples, one for analysis and other for validation. The former was used to derive relations by multi-discriminant analysis (MDA) and by fuzzy max-min compositions (fuzzy), and the latter was used to assess the predictions drawn from each type of relation. MDA and fuzzy were closely similar in terms of prediction, with correct allocation of 75.7 to 78.3% of patients in the validation sample, and displaying only a single instance of disagreement: a patient with low level of toxemia was mistaken as not diseased by MDA and correctly taken as somehow ill by fuzzy. Concerning relations, each method provided different information, each revealing different aspects of the relations between clinical signs and diagnoses. Both methods agreed on pointing X-ray, dyspnea, and auscultation as better related with pneumonia, but only fuzzy was able to detect relations of heart rate, body temperature, toxemia and respiratory rate with pneumonia. Moreover, only fuzzy was able to detect a relationship between heart rate and absence of disease, which allowed the detection of six malnourished children whose diagnoses as healthy are, indeed, disputable. The conclusion is that even though fuzzy sets theory might not improve prediction, it certainly does enhance clinical knowledge since it detects relationships not visible to stochastic models.
Resumo:
Multipotent mesenchymal stromal cells (MSCs) were first isolated from bone marrow and then from various adult tissues including placenta, cord blood, deciduous teeth, and amniotic fluid. MSCs are defined or characterized by their ability to adhere to plastic, to express specific surface antigens, and to differentiate into osteogenic, chondrogenic, adipogenic, and myogenic lineages. Although the molecular mechanisms that control MSC proliferation and differentiation are not well understood, the involvement of microRNAs has been reported. In the present study, we investigated the role of miR-125b during osteoblastic differentiation in humans. We found that miR-125b increased during osteoblastic differentiation, as well as Runx2 and ALPL genes. To study whether the gain or loss of miR-125b function influenced osteoblastic differentiation, we transfected MSCs with pre-miR-125b or anti-miR-125b and cultured the transfected cells in an osteoblastic differentiation medium. After transfection, no change was observed in osteoblastic differentiation, and Runx2, OPN, and ALPL gene expression were not changed. These results suggest that the gain or loss of miR-125b function does not influence levels of Runx2, OPN, and ALPL during osteoblastic differentiation.
Resumo:
The emerging technologies have recently challenged the libraries to reconsider their role as a mere mediator between the collections, researchers, and wider audiences (Sula, 2013), and libraries, especially the nationwide institutions like national libraries, haven’t always managed to face the challenge (Nygren et al., 2014). In the Digitization Project of Kindred Languages, the National Library of Finland has become a node that connects the partners to interplay and work for shared goals and objectives. In this paper, I will be drawing a picture of the crowdsourcing methods that have been established during the project to support both linguistic research and lingual diversity. The National Library of Finland has been executing the Digitization Project of Kindred Languages since 2012. The project seeks to digitize and publish approximately 1,200 monograph titles and more than 100 newspapers titles in various, and in some cases endangered Uralic languages. Once the digitization has been completed in 2015, the Fenno-Ugrica online collection will consist of 110,000 monograph pages and around 90,000 newspaper pages to which all users will have open access regardless of their place of residence. The majority of the digitized literature was originally published in the 1920s and 1930s in the Soviet Union, and it was the genesis and consolidation period of literary languages. This was the era when many Uralic languages were converted into media of popular education, enlightenment, and dissemination of information pertinent to the developing political agenda of the Soviet state. The ‘deluge’ of popular literature in the 1920s to 1930s suddenly challenged the lexical orthographic norms of the limited ecclesiastical publications from the 1880s onward. Newspapers were now written in orthographies and in word forms that the locals would understand. Textbooks were written to address the separate needs of both adults and children. New concepts were introduced in the language. This was the beginning of a renaissance and period of enlightenment (Rueter, 2013). The linguistically oriented population can also find writings to their delight, especially lexical items specific to a given publication, and orthographically documented specifics of phonetics. The project is financially supported by the Kone Foundation in Helsinki and is part of the Foundation’s Language Programme. One of the key objectives of the Kone Foundation Language Programme is to support a culture of openness and interaction in linguistic research, but also to promote citizen science as a tool for the participation of the language community in research. In addition to sharing this aspiration, our objective within the Language Programme is to make sure that old and new corpora in Uralic languages are made available for the open and interactive use of the academic community as well as the language societies. Wordlists are available in 17 languages, but without tokenization, lemmatization, and so on. This approach was verified with the scholars, and we consider the wordlists as raw data for linguists. Our data is used for creating the morphological analyzers and online dictionaries at the Helsinki and Tromsø Universities, for instance. In order to reach the targets, we will produce not only the digitized materials but also their development tools for supporting linguistic research and citizen science. The Digitization Project of Kindred Languages is thus linked with the research of language technology. The mission is to improve the usage and usability of digitized content. During the project, we have advanced methods that will refine the raw data for further use, especially in the linguistic research. How does the library meet the objectives, which appears to be beyond its traditional playground? The written materials from this period are a gold mine, so how could we retrieve these hidden treasures of languages out of the stack that contains more than 200,000 pages of literature in various Uralic languages? The problem is that the machined-encoded text (OCR) contains often too many mistakes to be used as such in research. The mistakes in OCRed texts must be corrected. For enhancing the OCRed texts, the National Library of Finland developed an open-source code OCR editor that enabled the editing of machine-encoded text for the benefit of linguistic research. This tool was necessary to implement, since these rare and peripheral prints did often include already perished characters, which are sadly neglected by the modern OCR software developers, but belong to the historical context of kindred languages and thus are an essential part of the linguistic heritage (van Hemel, 2014). Our crowdsourcing tool application is essentially an editor of Alto XML format. It consists of a back-end for managing users, permissions, and files, communicating through a REST API with a front-end interface—that is, the actual editor for correcting the OCRed text. The enhanced XML files can be retrieved from the Fenno-Ugrica collection for further purposes. Could the crowd do this work to support the academic research? The challenge in crowdsourcing lies in its nature. The targets in the traditional crowdsourcing have often been split into several microtasks that do not require any special skills from the anonymous people, a faceless crowd. This way of crowdsourcing may produce quantitative results, but from the research’s point of view, there is a danger that the needs of linguists are not necessarily met. Also, the remarkable downside is the lack of shared goal or the social affinity. There is no reward in the traditional methods of crowdsourcing (de Boer et al., 2012). Also, there has been criticism that digital humanities makes the humanities too data-driven and oriented towards quantitative methods, losing the values of critical qualitative methods (Fish, 2012). And on top of that, the downsides of the traditional crowdsourcing become more imminent when you leave the Anglophone world. Our potential crowd is geographically scattered in Russia. This crowd is linguistically heterogeneous, speaking 17 different languages. In many cases languages are close to extinction or longing for language revitalization, and the native speakers do not always have Internet access, so an open call for crowdsourcing would not have produced appeasing results for linguists. Thus, one has to identify carefully the potential niches to complete the needed tasks. When using the help of a crowd in a project that is aiming to support both linguistic research and survival of endangered languages, the approach has to be a different one. In nichesourcing, the tasks are distributed amongst a small crowd of citizen scientists (communities). Although communities provide smaller pools to draw resources, their specific richness in skill is suited for complex tasks with high-quality product expectations found in nichesourcing. Communities have a purpose and identity, and their regular interaction engenders social trust and reputation. These communities can correspond to research more precisely (de Boer et al., 2012). Instead of repetitive and rather trivial tasks, we are trying to utilize the knowledge and skills of citizen scientists to provide qualitative results. In nichesourcing, we hand in such assignments that would precisely fill the gaps in linguistic research. A typical task would be editing and collecting the words in such fields of vocabularies where the researchers do require more information. For instance, there is lack of Hill Mari words and terminology in anatomy. We have digitized the books in medicine, and we could try to track the words related to human organs by assigning the citizen scientists to edit and collect words with the OCR editor. From the nichesourcing’s perspective, it is essential that altruism play a central role when the language communities are involved. In nichesourcing, our goal is to reach a certain level of interplay, where the language communities would benefit from the results. For instance, the corrected words in Ingrian will be added to an online dictionary, which is made freely available for the public, so the society can benefit, too. This objective of interplay can be understood as an aspiration to support the endangered languages and the maintenance of lingual diversity, but also as a servant of ‘two masters’: research and society.
Resumo:
In this thesis I sought to capture something of the integrity of John Dewey's larger vision. While recognizing this to be a difficult challenge, I needed to clear some of the debris of an overly narrow reading of Dewey's works by students of education. The tendency of reducing Dewey's larger philosophical vision down to neat theoretical snap shots in order to prop up their particular social scientific research, was in my estimation slowly damaging the larger integrity of Dewey's vast body of work. It was, in short, killing off the desire to read big works, because doing so was not necessary to satisfying the specialized interests of social scientific research. In this thesis then I made a plea for returning the Humanities to the center of higher education. It is there that students learn how to read and to think—skills required to take on someone of Dewey's stature. I set out in this thesis to do just that. I took Dewey's notion of experience as the main thread connecting all of his philosophy, and focused on two large areas of inquiry, science and its relation to philosophy, and aesthetic experience. By exploring in depth Dewey's understanding of human experience as it pertains to day-to-day living, my call was for a heightened mode of artful conduct within our living contexts. By calling on the necessity of appreciating the more qualitative dimensions of lived experience, I was hoping that students engaged in the Social Sciences might begin to bolster their research interests with more breadth and depth of reading and critical insight. I expressed this as being important to the survival and intelligent flourishing of democratic conduct.
Resumo:
O'Fallon and Butterfield (2005) in a review of the business ethics literature concluded that "ethical awareness" also called ethical sensitivity has received the least attention of the four steps in Rest's (1986) ethical decision making model. Available measures for ethical sensitivity are limited to specific contexts and suffer from several limitations. I extend the previous literature by creating a new measure for ethical sensitivity (AESS) that encompasses relevant dimensions for the accounting profession and is not specific to a particular setting. I also introduce a new individual differences variable to the accounting ethics literature. Specifically, I investigate the relationship between anti-intellectualism and ethical awareness. My findings support AESS as a measure of ethical sensitivity.
Resumo:
The magnitude of the cervical cancer problem, coupled with the potential for prevention with recent technological advances, made it imperative to step back and reassess strategic options for dealing with cervical cancer screening in Kenya. The purpose of this qualitative study was: 1) to explore the extent to which the Participatory Action Research (PAR) methodology and the Scenario Based Planning (SBP) method, with the application of analytics, could enable strategic, consequential, informed decision making, and 2) to determine how influential Kenyan decision makers could apply SBP with analytic tools and techniques to make strategic, consequential decisions regarding the implementation of a Cervical Self Sampling Program (CSSP) in both urban and rural settings. The theoretical paradigm for this study was action research; it was experiential, practical, and action oriented, and resulted in co-created knowledge that influenced study participants’ decision making. Action Africa Help International (AAHI) and Brock University collaborated with Local Decision Influencing Participants (LDIP’s) to develop innovative strategies on how to implement the CSSP. SBP tools, along with traditional approaches to data collection and analysis, were applied to collect, visualize and analyze predominately qualitative data. Outputs from the study included: a) a generic implementation scenario for a CSSP (along with scenarios unique to urban and rural settings), and b) 10 strategic directions and 22 supporting implementation strategies that address the variables of: 1) technical viability, 2) political support, 3) affordability, 4) logistical feasibility, 5) social acceptability, and 6) transformation/sustainability. In addition, study participants’ capacity to effectively engage in predictive/prescriptive strategic decision making was strengthened.
Resumo:
Cancer du poumon associé à l’exposition au nickel, au chrome VI et au cadmium dans le milieu de travail utilisant deux études populationnelles cas-témoins à Montréal. Au début des années 1990, le nickel, le chrome VI et le cadmium ont été classés en tant qu’agents cancérigènes de classe 1 par le CIRC (Centre International de Recherche sur le Cancer). Cependant, les résultats des études ayant permis la classification de ces métaux n’ont pas toujours été reproduits, et d’importantes questions demeurent quant aux effets de ces métaux à de faibles niveaux d’exposition. Un plus grand nombre de recherches empiriques est donc nécessaire afin de réaffirmer la cancérogénicité de ces agents, et d’identifier les circonstances dans lesquelles ils peuvent être néfastes. L'objectif de cette étude était d'explorer la relation entre l’exposition à un des métaux (soit le nickel, le chrome VI, ou le cadmium) et les risques subséquents de développer un cancer du poumon chez des travailleurs provenant de différents milieux de travail qui sont exposés à ces métaux à de différents degrés. Deux études cas-témoins de base populationnelle menées à Montréal ont fourni les données nécessaires pour examiner la cancérogénicité de ces métaux. La première étude était menée entre 1979 et 1986 chez des hommes âgés de 35 à 70 ans ayant un cancer dans l’un de 19 sites anatomiques de cancer sélectionnés. La seconde étude était menée entre 1996 et 2001 chez des hommes et des femmes âgés de 35 à 75 ans, avec un diagnostic de tumeur maligne au poumon. Dans ces deux études, les cas ont été recensés dans tous les hôpitaux de l'île de Montréal, tandis que les contrôles populationnels appariés par âge et stratifiés par sexe, ont été sélectionnés des listes électorales. Une entrevue avec chaque sujet a permis d'obtenir un historique d'emploi détaillé ainsi que des informations précises sur les facteurs de risques socio-économiques et personnels. Les descriptions de poste ont été évaluées par une équipe d'experts chimistes et hygiénistes afin de déterminer si le sujet a été exposé à chaque agent, et pour mesurer à la fois la concentration et la durée de chaque exposition, ainsi que l’exposition cumulative tout au long de la vie de chaque participant. Pour déterminer si une exposition à l’un des trois métaux en cause était associée à une augmentation de l'incidence du cancer du poumon, des données ont été analysées par régression logistique : des ajustements ont été effectués pour des facteurs de confusion pertinents incluant un historique détaillé du tabagisme. Des mesures catégoriques d'exposition cumulée ont été également analysées, ainsi que la modification des effets par le tabagisme. Les deux études ont été analysées séparément, puis par la suite combinées afin d'augmenter la puissance statistique. Les niveaux d'exposition mesurés dans cette population ne semblaient pas poser un excès de risque de cancer du poumon pour les travailleurs exposés au chrome VI. Cependant, ceux qui ont été exposés au nickel ont subi une augmentation significative du risque, et ce, quel que soit leur niveau d'exposition. Le risque de développer un cancer du poumon suite à une exposition au cadmium était élevé, mais pas de manière significative. Pour chacun des trois métaux, le risque de cancer du poumon était très élevé parmi les non-fumeurs, mais pas parmi les fumeurs. L’effet combiné du tabagisme et de l’exposition aux métaux était compatible avec un excès de risque additif. Cependant, les intervalles de confiance dans cette étude tendaient à être larges, et une faiblesse de puissance statistique peut limiter l’interprétation de certains résultats. Cette étude est unique dans la mesure où elle a fourni des preuves empiriques sur les risques de développer le cancer du poumon liés aux faibles niveaux d’exposition au nickel, au chrome VI, ou au cadmium provenant de divers contextes de travail. Dans la plupart des autres études, la majorité des expositions pertinentes n’ont pas été bien contrôlées. À l'inverse, cette étude a bénéficié de la collecte et de la disponibilité d'information détaillée concernant le tabagisme et d’autres facteurs de risque. Les résultats de cette étude ont d'importantes conséquences pour la santé publique, tant au niveau de la détermination des risques pour les travailleurs actuellement exposés à ces métaux, qu'au niveau de l’évaluation des risques pour la population en général, elle-même exposée à ces métaux par le biais de la pollution et de la fumée de cigarette. Cette analyse contribuera fort probablement à une réévaluation par le CIRC de la cancérogénicité de ces métaux. L'exploration de la relation entre les risques de cancer du poumon et l'exposition au nickel, au chrome VI et au cadmium est donc opportune et pertinente.
Resumo:
RÉSUMÉ : Problématique : En dépit du nombre croissant de médecins immigrants qui choisissent de s’installer au Québec, et de la pénurie de ces professionnels de la santé, beaucoup d’entre eux ne parviendront pas à exercer leur profession au Québec. Les études réalisées auparavant n’étaient souvent pas spécifiques à l’intégration professionnelle des médecins immigrants au Québec. Et de nouvelles barrières émergeaient à chaque étude, justifiant la nécessité d’une démarche exploratoire pour mieux comprendre le sujet. Objectifs : L’objectif de cette étude est d’identifier et analyser les barrières à l’intégration professionnelle ainsi que les facteurs facilitants perçus par les médecins immigrants diplômés hors Canada et États-Unis qui choisissent de s’installer au Québec. Méthodologie : La stratégie retenue est la recherche synthétique de type étude de cas. C’est une recherche qualitative principalement basée sur l’analyse de 22 entrevues semi-structurées, réalisées avec des médecins immigrants diplômés hors Canada et États-Unis, originaires de 15 pays différents. L’échantillon est de type variation maximale, selon le pays d’origine, la formation initiale, l’expérience professionnelle et selon le parcours personnel au Québec. Le recrutement a été réalisé principalement à l’aide de la collaboration du Centre d'évaluation des sciences de la santé de l’Université Laval, de l’organisme « l’Hirondelle » et du département d’administration de la santé de l’Université de Montréal. Le cadre théorique est celui de Diaz (1993) et les différents thèmes qui ont été abordés dans l’entrevue sont inspirés de la synthèse des barrières et des perceptions citées dans la littérature dont la plupart ne sont pas spécifiques aux médecins immigrants. Ces thèmes généraux sont représentés par les contraintes linguistiques, socioculturelles, informationnelles, financières, procédurales et discriminatoires. Pour ce qui est des thèmes des facteurs facilitants, ce sont : les facteurs financiers, informationnels, d’aide et de support à l’intégration professionnelle. Résultats : Les 22 participants étaient composés de 13 hommes et de 9 femmes, âgés de 29 à 53 ans, originaires de 15 pays différents et ayant une durée de séjour au Québec de 2 à 15 ans. Lors des entrevues, les émergences recueillies grâce aux questions ouvertes ont permis d’appréhender les difficultés spécifiques perçues par les médecins immigrants qui n’ont pas été soulevées ii par la littérature. Les barrières à l’intégration professionnelle perçues par les médecins immigrants sont surtout de nature procédurale, mais également institutionnelles, et dans une moindre mesure, socioculturelles. Les principales barrières procédurales sont relatives aux facteurs informationnels, à l’évaluation des connaissances et des compétences médicales, mais surtout à l’absence de garantie de l’octroi des postes de résidence même après la réussite des examens exigés. Les facteurs facilitants les plus importants sont l’harmonisation des procédures provinciales et fédérales, l’amélioration relative de l’information, le soutien linguistique pour les nonfrancophones et la pénurie des médecins. Conclusion : La réduction des nombreuses barrières identifiées dans cette recherche, permettra non seulement de faciliter l’intégration professionnelle des médecins immigrants, mais également de contribuer à réduire la pénurie de ces professionnels de la santé au Québec.
Resumo:
Cette thèse porte sur l’appropriation de l’Internet et du multimédias dans la population universitaire d’Afrique francophone, en l’an 2001. Elle couvre six pays : le Bénin, le Burkina Faso, le Cameroun, la Côte d’Ivoire, le Mali et le Togo. La recherche porte sur le recensement des centres de recherche démographique en Afrique francophone subsaharienne et sur une enquête auprès des universités de Yaoundé II et de Douala au Cameroun. La problématique de l’accès et de l’usage est centrale dans notre démarche. Elle est traduite dans la question de recherche suivante : « Dans un contexte dominé par les représentations des NTIC comme symboles de modernité et facteurs d’intégration à l’économie mondiale, quelles sont les modalités d’appropriation de ces technologies par les universitaires des institutions de l’enseignement et de la recherche en Afrique considérées dans cette étude ? » Pour aborder le matériel empirique, nous avons opté pour deux approches théoriques : les théories du développement en lien avec les (nouveaux) médias et la sociologie des innovations techniques. Enracinées dans la pensée des Lumières, complétée et affinée par les approches évolutionnistes inspirées de Spencer, le fonctionnalisme d’inspiration parsonienne et l’économie politique axée sur la pensée de W. W. Rostow, les théories du développement ont largement mis à contribution les théories de la communication pour atteindre leur objet. Alors que la crise de la modernité occidentale menace de délégitimer ces paradigmes, les technologies émergentes leur donnent une nouvelle naissance : dans la continuité de la pensée d’Auguste Comte, le développement est désormais pensé en termes d’intégration à un nouveau type de société, la société de l’information. Cette nouvelle promesse eschatologique et cette foi dans la technique comme facteur d’intégration à la société et à l’économie en réseau habitent tous les projets menés sur le continent, que ce soit le NEPAD, le Fond de solidarité numérique, le projet d’ordinateur à 100$ pour les enfants démunis ou le projet panafricain de desserte satellitaire, le RASCOM. Le deuxième volet de notre cadre de référence théorique est axé sur la sociologie des innovations techniques. Nous mobilisons la sociopolitique des usages de Vedel et Vitalis pour ramener la raison critique dans le débat sur le développement du continent africain, dans l’optique de montrer que la prérogative politique assumée par les États a encore sa place, si l’on veut que les ressources numériques servent à satisfaire les demandes sociales et non les seules demandes solvables essentiellement localisées dans les centres urbains. En refusant le déterminisme technique si courant dans la pensée sur le développement, nous voulons montrer que le devenir de la technique n’est pas inscrit dans son essence, comme une ombre portée, mais que l’action des humains, notamment l’action politique, peut infléchir la trajectoire des innovations techniques dans l’optique de servir les aspirations des citoyens. Sur le plan méthodologique, la démarche combine les méthodes quantitatives et les méthodes qualitatives. Les premières nous permettront de mesurer la présence d’Internet et du multimédia dans l’environnement des répondants. Les secondes nous aideront à saisir les représentations développées par les usagers au contact de ces outils. Dans la perspective socioconstructiviste, ces discours sont constitutifs des technologies, dans la mesure où ils sont autant de modalités d’appropriation, de construction sociale de l’usage. Ultimement, l’intégration du langage technique propre aux outils multimédias dans le langage quotidien des usagers traduit le dernier stade de cette appropriation. À travers cette recherche, il est apparu que les usagers sont peu nombreux à utiliser les technologies audiovisuelles dans le contexte professionnel. Quand à l’Internet et aux outils multimédias, leur présence et leurs usages restent limités, l’accès physique n’étant pas encore garanti à tous les répondants de l’étude. Internet suscite de grandes espérances, mais reste, là aussi, largement inaccessible en contexte professionnel, la majorité des usagers se rabattant sur les lieux publics comme les cybercafés pour pallier l’insuffisance des ressources au sein de leurs institutions d’appartenance. Quant aux représentations, elles restent encore largement tributaires des discours politiques et institutionnels dominants, selon lesquels l’avenir sera numérique ou ne sera pas. La thèse va cependant au-delà de ces données pour dessiner la carte numérique actuelle du continent, en intégrant dans la nouvelle donne technologique la montée fulgurante de la téléphonie cellulaire mobile. Il nous est apparu que l’Internet, dont la diffusion sur le continent a été plus que modeste, pourrait largement profiter de l’émergence sur le continent de la culture mobile, que favorise notamment la convergence entre les mini-portables et la téléphonie mobile.
Resumo:
L'agrégation de l’anémie dans un ménage est soulignée lorsque l’anémie touche l’ensemble du ménage. La littérature scientifique fait état d’une coexistence des facteurs nutritionnels et infectieux dans l’étiologie de l’anémie. Cependant, si la cause principale de l’anémie dans une population est la carence en fer, les enfants et les femmes seront beaucoup plus affectés que les hommes. Si par contre l’anémie est liée à une cause infectieuse qui touche toute la population, l’anémie atteindra également les hommes. Ce travail a été entrepris pour vérifier l’hypothèse selon laquelle l’anémie ne serait pas spécifique à la carence en fer dans le cas où elle se concentrerait à l’ensemble du ménage. Cette étude porte sur des données d’enquête collectées au Cameroun. Nos analyses sont basées sur un sous échantillon de 2331 sujets, dont 777 femmes, 777 hommes et 777 enfants. La prévalence de l’anémie était de 53,5% chez les enfants, 39,5% chez les femmes et 18,3% chez les hommes. L’anémie était concentrée dans 34% des ménages. Le programme SPSS version 17.0 et plus particulièrement l’analyse de régression logistique a servi à tester l’impact de chaque groupe de variables (facteurs liés à l’individu, au ménage et à la communauté) sur l’agrégation de l’anémie dans les ménages. Les résultats de cette étude suggèrent que l’agrégation de l’anémie s’observerait surtout quand la santé de l’enfant est compromise. Le risque d’agrégation y est 4 fois plus élevé dans les foyers où les enfants ont un déficit pondéral et 6 fois plus élevé dans les ménages où les enfants présentent une fièvre. Le fait d’appartenir au sud forestier et à un ménage de niveau socio-économique moyen constituerait également des facteurs de risque d’agrégation.
Resumo:
Ammonia is neurotoxic and believed to play a major role in the pathogenesis of hepatic encephalopathy (HE). It has been demonstrated, in vitro and in vivo, that acute and high ammonia treatment induces oxidative stress. Reactive oxygen species (ROS) are highly reactive and can lead to oxidization of proteins resulting in protein damage. The present study was aimed to assess oxidative status of proteins in plasma and brain (frontal cortex) of rats with 4-week portacaval anastomosis (PCA). Markers of oxidative stress, 4-hydroxy-2-nonenal (HNE) and carbonylation were evaluated by immunoblotting in plasma and frontal cortex. Western blot analysis did not demonstrate a significant difference in either HNE-linked or carbonyl derivatives on proteins between PCA and sham-operated control rats in both plasma and frontal cortex. The present study suggests PCA-induced hyperammonemia does not lead to systemic or central oxidative stress.
Resumo:
La présente recherche décrit et examine la problématique posée par le trafic d’organes, de tissus et de cellules d’origine humaine, ainsi que les modes de régulation envisagés au niveau mondial pour lutter contre ce trafic, appréhendés sous l’angle de l’analyse de plusieurs conventions et protocoles internationaux et de leurs recommandations. Nous avons sélectionné, analysé et comparé les discours les plus significatifs de quatre types d’organisations internationales, les associations médicales internationales, l’Organisation des Nations Unies, l’Organisation mondiale de la Santé et le Conseil de l’Europe. Nous avons cherché à connaître leur point de vue sur la commercialisation des organes humains et plus spécifiquement sur le trafic des organes humains, à travers 17 textes que ces acteurs ont produit de 1987 jusqu’en 2014. L’analyse de ces discours experts révèle que la perspective éthique domine l’ensemble des documents. Elle met en évidence les convergences des discours sur la nécessité d’adopter une double stratégie fondée à la fois sur la prévention et la criminalisation du trafic d’organes ainsi que sur l’analyse du lien existant entre la pénurie croissante d’organes et l’avènement du trafic d’organes. Les discours sur la régulation et la criminalisation ont évolué vers un degré de précision et de complexification de la notion du trafic d’organes, une notion qui reste encore peu consensuelle dans sa définition. Quant aux stratégies, il faut observer que l’évolution des discours est assez significative et inégale à ce chapitre. C’est surtout dans les discours experts produits à partir des années 2000 que nous retrouvons des propositions plus concrètes sur les stratégies. La régulation des transactions financières, notamment par les balises de pratiques médicales et celles des intermédiaires, ainsi que les prescriptions entourant le consentement forment les deux types de stratégies les plus souvent mises de l’avant par les experts, toutes organisations confondues. Au fil de l’analyse des textes sur la régulation il est possible d’entrevoir des nuances et des brèches dans le principe d’interdiction de la commercialisation des organes humains, plus précisément en ce qui concerne les types d’organes, de tissus ou de cellules.
Resumo:
Objectif: Cette thèse avait pour objectif principal la mise en oeuvre et la validation de la faisabilité, chez l'humain, du paradigme de modulation du réflexe acoustique de sursaut par un court silence (GPIAS) afin de l'utiliser comme mesure objective de l'acouphène. Pour ce faire, trois expériences ont été réalisées. L'expérience 1 avait pour objectif de valider l'inhibition du réflexe de sursaut par un court silence chez des participants humains normo-entendants (sans acouphène) lors de la présentation d'un bruit de fond centré en hautes et en basses fréquences afin de déterminer les paramètres optimaux du paradigme. L'expérience 2 avait pour objectif de valider la précision et la fidélité d'une méthode de caractérisation psychoacoustique de l'acouphène (appariement en intensité et en fréquence). Finalement, l'expérience 3 avait pour objectif d'appliquer le paradigme d'objectivation de l'acouphène par le réflexe de sursaut à des participants atteints d'acouphènes chroniques en utilisant les techniques développées lors des expériences 1 et 2. Méthodologie : L'expérience 1 incluait 157 participants testés dans l'une des conditions de durée du court silence (5, 25, 50, 100, 200 ms) et dans l'un des deux paradigmes (court silence à l'intérieur du bruit de fond ou suivant celui-ci) à l'aide de bruits de fond en hautes et en basses fréquences. L'expérience 2 incluait deux groupes de participants avec acouphène, l'un musicien (n=16) et l'autre sans expérience musicale (n=16) ainsi qu'un groupe de simulateur sans acouphène (n=18). Ils tous ont été évalués sur leur capacité d'appariement en fréquence et en intensité de leur acouphène. Les mesures ont été reprises chez un sous-groupe de participants plusieurs semaines plus tard. L'expérience 3 incluait 15 participants avec acouphène et 17 contrôles évalués à l'aide du paradigme d'inhibition du réflexe de sursaut à l'aide d'un court silence (GPIAS). Les paramètres psychoacoustiques de l'acouphène ont également été mesurés. Toutes les mesures ont été reprises plusieurs mois plus tard chez un sous-groupe de participants. Résultats : Expérience 1 : le paradigme d'inhibition du réflexe acoustique de sursaut par un court silence est applicable chez l'humain normo-entendant. Expérience 2 : les mesures psychoacoustiques informatisées de l'acouphène incluant l'appariement en fréquence et en intensité sont des mesures précises et fidèles du percept de l'acouphène. Expérience 3 : un déficit d'inhibition au paradigme du GPIAS a été retrouvé chez le groupe de participants avec acouphène pour les bruits de fond en hautes et en basses fréquences au test et au retest. Les mesures d'appariement en fréquence ont révélé un acouphène dont la fréquence prédominante était d'environ 16 000 Hz chez la plupart des participants. Discussion : Il est possible d'appliquer le paradigme d'inhibition du réflexe acoustique de sursaut par un court silence à des participants humains atteints d'acouphène, tel qu'il est utilisé en recherche animale pour « objectiver » la présence d'acouphène. Toutefois, le déficit d'inhibition mesuré n'est pas spécifique à la fréquence de l'acouphène lorsque validé à partir des données d'appariement psychoacoustique. Nos résultats soulèvent des questions quant à l'interprétation originale du paradigme pour détecter la présence d'un acouphène chez les animaux.