927 resultados para spare part analysis


Relevância:

30.00% 30.00%

Publicador:

Resumo:

SUMMARY:: The EEG patterns seen with encephalopathies can be correlated to cerebral imaging findings including head computerized tomography and MRI. Background slowing without slow-wave intrusion is seen with acute and chronic cortical impairments that spare subcortical white matter. Subcortical/white matter structural abnormalities or hydrocephalus may produce projected slow-wave activity, while clinical entities involving both cortical and subcortical regions (diffuse cerebral abnormalities) engender both background slowing and slow-wave activity. Triphasic waves are seen with hepatic and renal insufficiency or medication toxicities (e.g., lithium, baclofen) in the absence of a significant cerebral imaging abnormality, Conversely, subcortical/white matter abnormalities may facilitate the appearance of triphasic waves without significant hepatic, renal, or toxic comorbidities. More specific syndromes, such as Jakob-Creutzfeldt disease, autoimmune limbic encephalitis, autoimmune corticosteroid-responsive encephalopathy with thyroid autoimmunity, sepsis-associated encephalopathy, and acute disseminated encephalomyelitis, have imaging/EEG changes that are variable but which may include slowing and epileptiform activity. This overview highlighting EEG-imaging correlations may help the treating physician in the diagnosis, and hence the appropriate treatment, of patients with encephalopathy.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diversity patterns of ammonoids are analyzed and compared with the timing of anoxic deposits around the Cenomanian/Turonian (C/T) boundary in the Vocontian, Anglo-Paris, and Monster basins of Western Europe. Differing from most previous studies, which concentrate on a narrow time span bracketing the C/T boundary, the present analysis covers the latest Albian to Early Turonian interval for which a high resolution, ammonoid-based biochronology, including 34 Unitary Associations zones, is now available. During the latest Albian-Middle Cenomanian interval, species richness of ammonoids reveals a dynamical equilibrium oscillating around an average of 20 species, whereas the Late Cenomanian-Early Turonian interval displays an equilibrium centered on an average value of 6 species. The abrupt transition between these two successive equilibria lasted no longer than two Unitary Associations. The onset of the decline of species richness thus largely predates the spread of oxygen-poor water masses onto the shelves, while minimal values of species richness coincide with the Cenomanian-Turonian boundary only. The decline of species richness during the entire Late Cenomanian seems to result from lower origination percentages rather than from higher extinction percentages. This result is also supported by the absence of statistically significant changes in the extinction probabilities of the poly-cohorts. Separate analyses of species richness for acanthoceratids and heteromorphs, the two essential components of the Cenomanian ammonoid community, reveal that heteromorphs declined sooner than acanthoceratids. Moreover, acanthoceratids showed a later decline at the genus level than at the species level. Such a decoupling is accompanied by a significant increase in morphological disparity of acanthoceratids, which is expressed by the appearance of new genera. Last, during the Late Cenomanian, paedomorphic processes, juvenile innovations and reductions of adult size dominated the evolutionary radiation of acanthoceratids. Hence, the decrease in ammonoid species richness and their major evolutionary changes significantly predates the spread of anoxic deposits. Other environmental constraints such as global flooding of platforms, warmer and more equable climate, as well as productivity changes better correlate with the timing of diversity changes and evolutionary patterns of ammonoids and therefore, provide more likely causative mechanisms than anoxia alone.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The widespread use of combination antiretroviral therapy (ARVs) has considerably improved the prognosis of patients infected with HIV. Conversely, considerable advances have been recently realized for the therapy of hepatitis C infection with the recent advent of potent new anti-HCV drugs that allow an increasing rate HCV infection cure. Despite their overall efficacy, a significant number of patients do not achieve or maintain adequate clinical response, defined as an undetectable viral load for HIV, and a sustained virological response (or cure) in HCV infection. Treatment failure therefore still remains an important issue besides drugs toxicities and viral resistance which is not uncommon in a significant percentage of patients who do not reach adequate virological suppression. The reasons of variability in drug response are multifactorial and apart from viral genetics, other factors such as environmental factors, drug- drug interactions, and imperfect compliance may have profound impact on antiviral drugs' clinical response. The possibility of measuring plasma concentration of antiviral drugs enables to guide antiviral drug therapy and ensure optimal drug exposure. The overall objective of this research was to widen up the current knowledge on pharmacokinetic and pharmacogenetic factors that influence the clinical response and toxicity of current and newly approved antiretroviral and anti-HCV drugs. To that endeavour, analytical methods using liquid chromatography coupled with tandem mass spectrometry have been developed and validated for the precise and accurate measurement of new antiretroviral and anti-HCV drugs . These assays have been applied for the TDM of ARVs and anti-HCV in patients infected with either HIV or HCV respectively, and co-infected with HIV- HCV. A pharmacokinetic population model was developed to characterize inter and intra-patient variability of rilpivirine, the latest marketed Non Nucleoside Reverse transcriptase (NNRTI) Inhibitor of HIVand to identify genetic and non genetic covariates influencing rilpivirine exposure. None of the factors investigated so far showed however any influence of RPV clearance. Importantly, we have found that the standard daily dosage regimen (25 mg QD) proposed for rilpivirine results in concentrations below the proposed therapeutic target in about 40% of patients. In these conditions, virologie escape is a potential risk that remains to be further investigated, notably via the TDM approach that can be a useful tool to identify patients who are at risk for being exposed to less than optimal levels of rilpivirine in plasma. Besides the last generation NNRTI rilpivirine, we have studied efavirenz, the major NNRTI clinically used so far. Namely for efavirenz, we aimed at identifying a potential new marker of toxicity that may be incriminated for the neuropsychological sides effects and hence discontinuation of efavirenz therapy. To that endeavour, a comprehensive analysis of phase I and phase II metabolites profiles has been performed in plasma, CSF and in urine from patients under efavirenz therapy. We have found that phase II metabolites of EFV constitute the major species circulating in blood, sometimes exceeding the levels of the parent drug efavirenz. Moreover we have identified a new metabolite of efavirenz in humans, namely the 8-OH-EFV- sulfate which is present at high concentrations in all body compartments from patients under efavirenz therapy. These investigations may open the way to possible alternate phenotypic markers of efavirenz toxicity. Finally, the specific influence of P-glycoprotein on the cellular disposition of a series ARVs (NNRTIs and Pis] has been studies in in vitro cell systems using the siRNA silencing approach. -- Depuis l'introduction de la thérapie antirétrovirale (ARVs) la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Une réponse imparfaite ou la toxicité du traitement est certainement multifactorielle. Le suivi thérapeutique des médicaments [Therapeutic Drug Monitoring TDM) à travers la mesure des concentrations plasmatiques constitue une approche importante pour guider le traitement médicamenteux et de s'assurer que les patients sont exposés à des concentrations optimales des médicaments dans le sang, et puissent tirer tout le bénéfice potentiel du traitement. L'objectif global de cette thèse était d'étudier les facteurs pharmacocinétiques et pharmacogénétiques qui influencent l'exposition des médicaments antiviraux (ARVs et anti- VHC) récemment approuvés. A cet effet, des méthodes de quantification des concentrations plasmatiques des médicaments antirétroviraux, anti-VHC ainsi que pour certains métabolites ont été développées et validées en utilisant la Chromatographie liquide couplée à la spectrométrie de masse tandem. Ces méthodes ont été utilisées pour le TDM des ARVs et pour les agents anti-VHC chez les patients infectés par le VIH, et le VHC, respectivement, mais aussi chez les patients co-infectés par le VIH-VHC. Un modèle de pharmacocinétique de population a été développé pour caractériser la variabilité inter-et intra-patient du médicament rilpivirine, un inhibiteur non nucléosidique de la transcriptase de VIH et d'identifier les variables génétiques et non génétiques influençant l'exposition au médicament. Aucun des facteurs étudiés n'a montré d'influence notable sur la clairance de la rilpivirine. Toutefois, la concentration résiduelle extrapolée selon le modèle de pharmacocinétique de population qui a été développé, a montré qu'une grande proportion des patients présente des concentrations minimales inférieures à la cible thérapeutique proposée. Dans ce contexte, la relation entre les concentrations minimales et l'échappement virologique nécessite une surveillance étroite des taux sanguins des patients recevant de la rilpivirine. A cet effet, le suivi thérapeutique est un outil important pour l'identification des patients à risque soient sous-exposés à lai rilpivirine. Pour identifier de nouveaux marqueurs de la toxicité qui pourraient induire l'arrêt du traitement, le profil des métabolites de phase I et de phase II a été étudié dans différentes matrices [plasma, LCR et urine) provenant de patients recevant de l'efavirenz. Les métabolites de phase II, qui n'avaient à ce jour jamais été investigués, constituent les principales espèces présentes dans les matrices étudiées. Au cours de ces investigations, un nouveau métabolite 8- OH-EFV-sulfate a été identifié chez l'homme, et ce dernier est. présent à des concentrations importantes. L'influence de certains facteurs pharmacogénétique des patients sur le profil des métabolites a été étudiée et ouvre la voie à de possibles nouveaux marqueurs phénotypiques alternatifs qui pourraient possiblement mieux prédire la toxicité associée au traitement par l'efavirenz. Finalement, nous nous sommes intéressés à étudier dans un modèle in vitro certains facteurs, comme la P-glycoprotéine, qui influencent la disposition cellulaire de certains médicaments antirétroviraux, en utilisant l'approche par la technologie du siRNA permettant de bloquer sélectivement l'expression du gène de cette protéine d'efflux des médicaments. -- Depuis l'introduction de la thérapie antiretrovirale (ARVs] la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Il a pu être démontré que la concentration de médicament présente dans l'organisme est corrélée avec l'efficacité clinique pour la plupart des médicaments agissant contre le VIH et contre le VHC. Les médicaments antiviraux sont généralement donnés à une posologie fixe et standardisée, à tous les patients, il existe cependant une importante variabilité entre les concentrations sanguines mesurées chez les individus. Cette variabilité peut être expliquée par plusieurs facteurs démographiques, environnementaux ou génétiques. Dans ce contexte, le suivi des concentrations sanguines (ou Therapeutic Drug Monitoring, TDM) permet de contrôler que les patients soient exposés à des concentrations suffisantes (pour bloquer la réplication du virus dans l'organisme) et éviter des concentrations excessives, ce qui peut entraîner l'apparition d'intolérence au traitement. Le but de ce travail de thèse est d'améliorer la compréhension des facteurs pharmacologiques et génétiques qui peuvent influencer l'efficacité et/ou la toxicité des médicaments antiviraux, dans le but d'améliorer le suivi des patients. A cet effet, des méthodes de dosage très sensibles et ont été mises au point pour permettre de quantifier les médicaments antiviraux dans le sang et dans d'autres liquides biologiques. Ces méthodes de dosage sont maintenant utilisées d'une part dans le cadre de la prise en charge des patients en routine et d'autre part pour diverses études cliniques chez les patients infectés soit par le HIV, le HCV ou bien coinfectés par les deux virus. Une partie de ce travail a été consacrée à l'investigation des différents facteurs démographiques, génétiques et environnementaux qui pourraient l'influencer la réponse clinique à la rilpivirine, un nouveau médicament contre le VIH. Toutefois, parmi tous les facteurs étudiés à ce jour, aucun n'a permis d'expliquer la variabilité de l'exposition à la rilpivirine chez les patients. On a pu cependant observer qu'à la posologie standard recommandée, un pourcentage relativement élevé de patients pourrait présenter des concentrations inférieures à la concentration sanguine minimale actuellement proposée. Il est donc utile de surveiller étroitement les concentrations de rilpivirine chez les patients pour identifier sans délai ceux qui risquent d'être sous-exposés. Dans l'organisme, le médicament subit diverses transformations (métabolisme) par des enzymes, notamment dans le foie, il est transporté dans les cellules et tissus par des protéines qui modulent sa concentration au site de son action pharmacologique. A cet effet, différents composés (métabolites) produits dans l'organisme après l'administration d'efavirenz, un autre médicament anti-VIH, ont été étudiés. En conclusion, nous nous sommes intéressés à la fois aux facteurs pharmacologiques et génétiques des traitements antiviraux, une approche qui s'inscrit dans l'optique d'une stratégie globale de prise en charge du patient. Dans ce contexte, le suivi des concentrations sanguines de médicaments constitue une des facettes du domaine émergent de la Médecine Personnalisée qui vise à maximiser le bénéfice thérapeutique et le profil de tolérance des médicaments antiviraux

Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJECTIVES: Kaposi's sarcoma (KS), invasive cervical carcinoma (ICC) and non-Hodgkin lymphoma (NHL) have been listed as AIDS-defining cancers (ADCs) by the Centers for Disease Control and Prevention since 1993. Despite this, HIV screening is not universally mentioned in ADC treatment guidelines. We examined screening practices at a tertiary centre serving a population where HIV seroprevalence is 0.4%. METHODS: Patients with KS, ICC, NHL and Hodgkin lymphoma (HL), treated at Lausanne University Hospital between January 2002 and July 2012, were studied retrospectively. HIV testing was considered part of the oncology work-up if performed between 90 days before and 90 days after the cancer diagnosis date. RESULTS: A total of 880 patients were examined: 10 with KS, 58 with ICC, 672 with NHL and 140 with HL. HIV testing rates were 100, 11, 60 and 59%, and HIV seroprevalence was 60, 1.7, 3.4 and 5%, respectively. Thirty-seven patients (4.2%) were HIV-positive, of whom eight (22%) were diagnosed at oncology work-up. All newly diagnosed patients had CD4 counts < 200 cells/μL and six (75%) had presented to a physician 12-236 weeks previously with conditions warranting HIV testing. CONCLUSIONS: In our institution, only patients with KS were universally screened. Screening rates for other cancers ranged from 11 to 60%. HIV seroprevalence was at least fourfold higher than the population average. As HIV-positive status impacts on cancer patient medical management, HIV screening should be included in oncology guidelines. Further, we recommend that opt-out screening should be adopted in all patients with ADCs and HL.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Multiexponential decays may contain time-constants differing in several orders of magnitudes. In such cases, uniform sampling results in very long records featuring a high degree of oversampling at the final part of the transient. Here, we analyze a nonlinear time scale transformation to reduce the total number of samples with minimum signal distortion, achieving an important reduction of the computational cost of subsequent analyses. We propose a time-varying filter whose length is optimized for minimum mean square error

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The structural modeling of spatial dependence, using a geostatistical approach, is an indispensable tool to determine parameters that define this structure, applied on interpolation of values at unsampled points by kriging techniques. However, the estimation of parameters can be greatly affected by the presence of atypical observations in sampled data. The purpose of this study was to use diagnostic techniques in Gaussian spatial linear models in geostatistics to evaluate the sensitivity of maximum likelihood and restrict maximum likelihood estimators to small perturbations in these data. For this purpose, studies with simulated and experimental data were conducted. Results with simulated data showed that the diagnostic techniques were efficient to identify the perturbation in data. The results with real data indicated that atypical values among the sampled data may have a strong influence on thematic maps, thus changing the spatial dependence structure. The application of diagnostic techniques should be part of any geostatistical analysis, to ensure a better quality of the information from thematic maps.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This article analyses and discusses issues that pertain to the choice of relevant databases for assigning values to the components of evaluative likelihood ratio procedures at source level. Although several formal likelihood ratio developments currently exist, both case practitioners and recipients of expert information (such as judiciary) may be reluctant to consider them as a framework for evaluating scientific evidence in context. The recent ruling R v T and ensuing discussions in many forums provide illustrative examples for this. In particular, it is often felt that likelihood ratio-based reasoning amounts to an application that requires extensive quantitative information along with means for dealing with technicalities related to the algebraic formulation of these approaches. With regard to this objection, this article proposes two distinct discussions. In a first part, it is argued that, from a methodological point of view, there are additional levels of qualitative evaluation that are worth considering prior to focusing on particular numerical probability assignments. Analyses will be proposed that intend to show that, under certain assumptions, relative numerical values, as opposed to absolute values, may be sufficient to characterize a likelihood ratio for practical and pragmatic purposes. The feasibility of such qualitative considerations points out that the availability of hard numerical data is not a necessary requirement for implementing a likelihood ratio approach in practice. It is further argued that, even if numerical evaluations can be made, qualitative considerations may be valuable because they can further the understanding of the logical underpinnings of an assessment. In a second part, the article will draw a parallel to R v T by concentrating on a practical footwear mark case received at the authors' institute. This case will serve the purpose of exemplifying the possible usage of data from various sources in casework and help to discuss the difficulty associated with reconciling the depth of theoretical likelihood ratio developments and limitations in the degree to which these developments can actually be applied in practice.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The optimal treatment strategy for patients presenting with an acute coronary syndrome without ST elevation is controversial and different therapeutic approaches are recognized. Currently, given the literature available, it is not possible to recommend a universal systematic invasive approach. It is essential to individually risk stratify patients in order to identify those high risk patients that have been shown to benefit from an invasive strategy. Compared to conservative medical treatment, patients at low risk have not been shown to benefit from an invasive strategy. Urgent coronary angiography remains recommended for those patients with persistent or recurrent ischemic symptoms under optimal medical treatment.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The process of free reserves in a non-life insurance portfolio as defined in the classical model of risk theory is modified by the introduction of dividend policies that set maximum levels for the accumulation of reserves. The first part of the work formulates the quantification of the dividend payments via the expectation of their current value under diferent hypotheses. The second part presents a solution based on a system of linear equations for discrete dividend payments in the case of a constant dividend barrier, illustrated by solving a specific case.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A t the request of the Iowa State Highway Commission, the Engineering Research Institute observed the traffic operations at the Interstate 29 (1-29) and Interstate 80 (1-80) interchange in the southwest part of Council Bluffs. The general location of the site is shown in Figure 1. Before limiting the analysis to the diverging area the project staff drove the entire Council Bluffs freeway system and consulted with M r . Philip Hassenstab (Iowa State Highway Commission, District 4, Resident Maintenance Engineer at Council Bluffs). The final study scope was delineated as encompassing only the operational characteristics of the diverge area where 1-29 South and 1-80 East divide and the ramp to merge area where 1-80 West joins 1-29 North (both areas being contained within the aforementioned interchange). Supplementing the traffic operations scope, was an effort to delineate and document the applicability of video-tape techniques to traffic engineering studies and analyses. Documentation was primarily in the form of a demonstration video-tape.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The research reported in this series of article aimed at (1) automating the search of questioned ink specimens in ink reference collections and (2) at evaluating the strength of ink evidence in a transparent and balanced manner. These aims require that ink samples are analysed in an accurate and reproducible way and that they are compared in an objective and automated way. This latter requirement is due to the large number of comparisons that are necessary in both scenarios. A research programme was designed to (a) develop a standard methodology for analysing ink samples in a reproducible way, (b) comparing automatically and objectively ink samples and (c) evaluate the proposed methodology in forensic contexts. This report focuses on the last of the three stages of the research programme. The calibration and acquisition process and the mathematical comparison algorithms were described in previous papers [C. Neumann, P. Margot, New perspectives in the use of ink evidence in forensic science-Part I: Development of a quality assurance process for forensic ink analysis by HPTLC, Forensic Sci. Int. 185 (2009) 29-37; C. Neumann, P. Margot, New perspectives in the use of ink evidence in forensic science- Part II: Development and testing of mathematical algorithms for the automatic comparison of ink samples analysed by HPTLC, Forensic Sci. Int. 185 (2009) 38-50]. In this paper, the benefits and challenges of the proposed concepts are tested in two forensic contexts: (1) ink identification and (2) ink evidential value assessment. The results show that different algorithms are better suited for different tasks. This research shows that it is possible to build digital ink libraries using the most commonly used ink analytical technique, i.e. high-performance thin layer chromatography, despite its reputation of lacking reproducibility. More importantly, it is possible to assign evidential value to ink evidence in a transparent way using a probabilistic model. It is therefore possible to move away from the traditional subjective approach, which is entirely based on experts' opinion, and which is usually not very informative. While there is room for the improvement, this report demonstrates the significant gains obtained over the traditional subjective approach for the search of ink specimens in ink databases, and the interpretation of their evidential value.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction: Evidence-based medicine (EBM) improves the quality of health care. Courses on how to teach EBM in practice are available, but knowledge does not automatically imply its application in teaching. We aimed to identify and compare barriers and facilitators for teaching EBM in clinical practice in various European countries. Methods: A questionnaire was constructed listing potential barriers and facilitators for EBM teaching in clinical practice. Answers were reported on a 7-point Likert scale ranging from not at all being a barrier to being an insurmountable barrier. Results: The questionnaire was completed by 120 clinical EBM teachers from 11 countries. Lack of time was the strongest barrier for teaching EBM in practice (median 5). Moderate barriers were the lack of requirements for EBM skills and a pyramid hierarchy in health care management structure (median 4). In Germany, Hungary and Poland, reading and understanding articles in English was a higher barrier than in the other countries. Conclusion: Incorporation of teaching EBM in practice faces several barriers to implementation. Teaching EBM in clinical settings is most successful where EBM principles are culturally embedded and form part and parcel of everyday clinical decisions and medical practice.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La rigidité anormalement haute des artères à grande conductance est un marqueur de l'augmentation du risque cardiovasculaire et est typiquement retrouvée chez les patients diabétiques ou hypertendus. Ces vaisseaux deviennent plus rigides avec l'âge, expliquant la haute prévalence d'hypertension systolique chez les personnes âgées. Cette rigidification agit sur la pression sanguine de plusieurs façons. Notamment la fonction windkessel est gênée, menant à l'augmentation de la pression systolique et de la pression puisée, la diminution de la pression diastolique, et ainsi à l'augmentation de la postcharge ventriculaire gauche associée à une probable diminution de la perfusion coronarienne. De plus, la propagation des ondes de pression le long de l'arbre vasculaire est accélérée, de sorte que les ondes réfléchies générées au site de décalage d'impédance atteignent l'aorte ascendante plus tôt par rapport au début de l'éjection ventriculaire, aboutissant à une augmentation de la pression systolique centrale, ce qui n'arriverait pas en présence de vaisseaux moins rigides. Dans ce cas, au contraire, les ondes de pression antérogrades et réfléchies voyages plus lentement, de sorte que les ondes de réflexion tendent à atteindre l'aorte centrale une fois l'éjection terminée, augmentant la pression diastolique et contribuant à la perfusion coronarienne. La tonométrie d'applanation est une méthode non invasive permettant l'évaluation de la forme de l'onde de pression au niveau l'aorte ascendante, basée sur l'enregistrement du pouls périphérique, au niveau radial dans notre étude. Nous pouvons dériver à partir de cette méthode un index d'augmentation systolique (sAIX) qui révèle quel pourcentage de la pression centrale est du aux ondes réfléchies. Plusieurs études ont montré que cet index est corrélé à d'autres mesures de la rigidité artérielle comme la vitesse de l'onde de pouls, qu'il augmente avec l'âge et avec les facteurs de risques cardiovasculaires, et qu'il est capable de préciser le pronostic cardiovasculaire. En revanche, peu d'attention a été portée à l'augmentation de la pression centrale diastolique due aux ondes réfléchies (dAIX). Nous proposons donc de mesurer cet index par un procédé d'analyse développé dans notre laboratoire, et ce dans la même unité que l'index systolique. Etant donné que les modifications de la paroi artérielle modulent d'une part la vitesse de l'onde de pouls (PWV) et d'autre part le temps de voyage aller-retour des ondes de pression réfléchies aux sites de réflexion, toute augmentation de la quantité d'énergie réfléchie atteignant l'aorte pendant la systole devrait être associée à une diminution de l'énergie arrivant au même point pendant la diastole. Notre étude propose de mesurer ces deux index, ainsi que d'étudier la relation de l'index d'augmentation diastolique (dAIX) avec la vitesse de propagation de l'onde de pouls (PWV) et avec le rythme cardiaque (HR), ce dernier étant connu pour influencer l'index d'augmentation systolique (sAIX) . L'influence de la position couchée et assise est aussi étudiée. Les mesures de la PWV et des sAIX et dAIX est réalisée chez 48 hommes et 45 femmes âgées de 18 à 70 ans, classés en 3 groupes d'âges. Les résultats montrent qu'en fonction de l'âge, le genre et la position du corps, il y a une relation inverse entre sAIX et dAIX. Lorsque PWV et HR sont ajoutés comme covariables à un modèle de prédiction comprenant l'âge, le genre et la position du corps comme facteurs principaux, sAIX est directement lié à PWV (p<0.0001) et inversement lié à HR (p<0.0001). Avec la même analyse, dAIX est inversement lié à PWV (p<0.0001) et indépendant du rythme cardiaque (p=0.52). En conclusion, l'index d'augmentation diastolique est lié à la rigidité vasculaire au même degré que l'index d'augmentation systolique, alors qu'il est affranchi de l'effet confondant du rythme cardiaque. La quantification de l'augmentation de la pression aortique diastolique due aux ondes réfléchies pourrait être une partie utile de l'analyse de l'onde de pouls.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the past decades, transfusion medicine has been driven by the quest for increased safety against transfusion-transmitted infections, mainly by better donor selection and by the development of improved serological and nucleic-acid-based screening assays. Recently, pathogen reduction technologies became available and started to be implemented in several countries, with the primary goal to fight against bacterial contamination of blood products, a rare but dramatic event against which there was no definitive measure. Though pathogen reduction technologies represent a quantum leap in transfusion safety, the biomedical efficacy of platelet concentrates (PCs) treated with various pathogen reduction techniques has been recently questioned by clinical studies. Here, a gel-based proteomic analysis of PCs (n=5), Intercept-treated or untreated, from pooled buffy-coat (10 donors per PC) at Days 1, 2 and 8, shows that the Intercept process that is the most widespread pathogen reduction technique to date, has relatively low impact on the proteome of treated platelets: the process induces modifications of DJ-1 protein, glutaredoxin 5, and G(i)alpha 2 protein. As for the impact of storage, chloride intracellular channel protein 4 (CLIC4) and actin increased independently of Intercept treatment during storage. Whereas alteration of the DJ-1 protein and glutaredoxin 5 points out an oxidative stress-associated lesion, modification of G(i)alpha2 directly connects a possible Intercept-associated lesion to haemostatic properties of Intercept-treated platelets. This article is part of a Special Issue entitled: Integrated omics.