981 resultados para Modified Rankin Scale


Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this study the effect of incorporation of recycled glass-fibre reinforced polymer (GFRP) waste materials, obtained by means of milling processes, on mechanical behaviour of polyester polymer mortars was assessed. For this purpose, different contents of recycled GFRP waste powder and fibres, with distinct size gradings, were incorporated into polyester based mortars as sand aggregates and filler replacements. Flexural and compressive loading capacities were evaluated and found better than unmodified polymer mortars. GFRP modified polyester based mortars also show a less brittle behaviour, with retention of some loading capacity after peak load. Obtained results highlight the high potential of recycled GFRP waste materials as efficient and sustainable reinforcement and admixture for polymer concrete and mortars composites, constituting an emergent waste management solution.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Glass fibre-reinforced plastics (GFRP), nowadays commonly used in the construction, transportation and automobile sectors, have been considered inherently difficult to recycle due to both: cross-linked nature of thermoset resins, which cannot be remolded, and complex composition of the composite itself, which includes glass fibres, matrix and different types of inorganic fillers. Presently, most of the GFRP waste is landfilled leading to negative environmental impacts and supplementary added costs. With an increasing awareness of environmental matters and the subsequent desire to save resources, recycling would convert an expensive waste disposal into a profitable reusable material. There are several methods to recycle GFR thermostable materials: (a) incineration, with partial energy recovery due to the heat generated during organic part combustion; (b) thermal and/or chemical recycling, such as solvolysis, pyrolisis and similar thermal decomposition processes, with glass fibre recovering; and (c) mechanical recycling or size reduction, in which the material is subjected to a milling process in order to obtain a specific grain size that makes the material suitable as reinforcement in new formulations. This last method has important advantages over the previous ones: there is no atmospheric pollution by gas emission, a much simpler equipment is required as compared with ovens necessary for thermal recycling processes, and does not require the use of chemical solvents with subsequent environmental impacts. In this study the effect of incorporation of recycled GFRP waste materials, obtained by means of milling processes, on mechanical behavior of polyester polymer mortars was assessed. For this purpose, different contents of recycled GFRP waste materials, with distinct size gradings, were incorporated into polyester polymer mortars as sand aggregates and filler replacements. The effect of GFRP waste treatment with silane coupling agent was also assessed. Design of experiments and data treatment were accomplish by means of factorial design and analysis of variance ANOVA. The use of factorial experiment design, instead of the one factor at-a-time method is efficient at allowing the evaluation of the effects and possible interactions of the different material factors involved. Experimental results were promising toward the recyclability of GFRP waste materials as polymer mortar aggregates, without significant loss of mechanical properties with regard to non-modified polymer mortars.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work, the effect of incorporation of recycled glass fibre reinforced plastics (GFRP) waste materials, obtained by means of shredding and milling processes, on mechanical behavior of polyester polymer mortar (PM) materials was assessed. For this purpose, different contents of GFRP recyclates (between 4% up to 12% in mass), were incorporated into polyester PM materials as sand aggregates and filler replacements. The effect of silane coupling agent addition to resin binder was also evaluated. Applied waste material was proceeding from the shredding of the leftovers resultant from the cutting and assembly processes of GFRP pultrusion profiles. Currently, these leftovers, jointly with unfinished products and scrap resulting from pultrusion manufacturing process, are landfilled, with supplementary added costs. Thus, besides the evident environmental benefits, a viable and feasible solution for these wastes would also conduct to significant economic advantages. Design of experiments and data treatment were accomplish by means of full factorial design approach and analysis of variance ANOVA. Experimental results were promising toward the recyclability of GFRP waste materials as aggregates and reinforcement for PM materials, with significant improvements on mechanical properties with regard to non-modified formulations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial para obtenção do grau de Mestre em Engenharia Informática

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A novel sensitive electrochemical sensor was developed by electropolymerization of pyrrole(PY)and molecularly imprinted polymer (MIP)which was synthesized onto a glassy carbon electrode (GCE) in aqueous solution using cyclic voltammetry in the presence of Trimethoprim (TMP) as template molecules. Furthermore,a previous electrode modification was performed by deposition of a suspension of graphene on the electrode's surface. The performance of the imprinted and non-imprinted (NIP) films was evaluated by impedance spectroscopy (EIS) and cyclic voltammetry (CV) of a ferric solution. The molecularly imprinted film exhibited a high selectivity and sensitivity toward TMP. The sensor presented a linear range, between peak current intensity and logarithm of TMP concentration between 1.0x10-6 and 1.0x10-4 M. The results were accurate (with recoveries higher than 94%), precise (with standard deviations less than 5%) and the detection limit was 1.3x10-7 M. The new sensor is selective, simple to construct and easy to operate. The MIP sensor was successfully applied to quantify TMP in urinesamples.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thermally expandable particles (TEPs) are used in a wide variety of applications by industry mainly for weight reduction and appearance improvement for thermoplastics, inks, and coatings. In adhesive bonding, TEPs have been used for recycling purposes. However, TEPs might be used to modify structural adhesives for other new purposes, such as: to increase the joint strength by creating an adhesive functionally modified along the overlap of the joint by gradual heating and/or to heal the adhesive in case of damage. In this study, the behaviour of a structural polyurethane adhesive modified with TEPs was investigated as a preliminary study for further investigations on the potential of TEPs in adhesive joints. Tensile bulk tests were performed to get the tensile properties of the unmodified and TEPs-modified adhesive, while Double Cantilever Beam (DCB) test was performed in order to evaluate the resistance to mode I crack propagation of unmodified and TEPs-modified adhesive. In addition, in order to investigate the behaviour of the particles while encapsulated in adhesives, a thermal analysis was done. Scanning electron microscopy (SEM) was used to examine the fracture surface morphology of the specimens. The fracture toughness of the TEPs-modified adhesive was found to increase by addition of TEPs, while the adhesive tensile strength at yield decreased. The temperature where the particles show the maximum expansion varied with TEPs concentration, decreasing with increasing the TEPs content.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work describes the utilization of Pulsed Electric Fields to control the protozoan contamination of a microalgae culture, in an industrial 2.7m3 microalgae photobioreactor. The contaminated culture was treated with Pulsed Electric Fields, PEF, for 6h with an average of 900V/cm, 65μs pulses of 50Hz. Working with recirculation, all the culture was uniformly exposed to the PEF throughout the assay. The development of the microalgae and protozoan populations was followed and the results showed that PEF is effective on the selective elimination of protozoa from microalgae cultures, inflicting on the protozoa growth halt, death or cell rupture, without affecting microalgae productivity. Specifically, the results show a reduction of the active protozoan population of 87% after 6h treatment and 100% after few days of normal cultivation regime. At the same time, microalgae growth rate remained unaffected. © 2014 Elsevier B.V.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Even though Software Transactional Memory (STM) is one of the most promising approaches to simplify concurrent programming, current STM implementations incur significant overheads that render them impractical for many real-sized programs. The key insight of this work is that we do not need to use the same costly barriers for all the memory managed by a real-sized application, if only a small fraction of the memory is under contention lightweight barriers may be used in this case. In this work, we propose a new solution based on an approach of adaptive object metadata (AOM) to promote the use of a fast path to access objects that are not under contention. We show that this approach is able to make the performance of an STM competitive with the best fine-grained lock-based approaches in some of the more challenging benchmarks. (C) 2015 Elsevier Inc. All rights reserved.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial para obtenção do grau de Mestre em Engenharia Informática

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Natureza Científica elaborada no Laboratório Nacional de Engenharia Civil (LNEC) para obtenção do grau de mestre em Engenharia Civil na Área de Especialização de Hidráulica no âmbito do protocolo de cooperação entre o ISEL e o LNEC

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores - Ramo de Sistemas Autónomos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We examine the constraints on the two Higgs doublet model (2HDM) due to the stability of the scalar potential and absence of Landau poles at energy scales below the Planck scale. We employ the most general 2HDM that incorporates an approximately Standard Model (SM) Higgs boson with a flavor aligned Yukawa sector to eliminate potential tree-level Higgs-mediated flavor changing neutral currents. Using basis independent techniques, we exhibit robust regimes of the 2HDM parameter space with a 125 GeV SM-like Higgs boson that is stable and perturbative up to the Planck scale. Implications for the heavy scalar spectrum are exhibited.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hyperspectral remote sensing exploits the electromagnetic scattering patterns of the different materials at specific wavelengths [2, 3]. Hyperspectral sensors have been developed to sample the scattered portion of the electromagnetic spectrum extending from the visible region through the near-infrared and mid-infrared, in hundreds of narrow contiguous bands [4, 5]. The number and variety of potential civilian and military applications of hyperspectral remote sensing is enormous [6, 7]. Very often, the resolution cell corresponding to a single pixel in an image contains several substances (endmembers) [4]. In this situation, the scattered energy is a mixing of the endmember spectra. A challenging task underlying many hyperspectral imagery applications is then decomposing a mixed pixel into a collection of reflectance spectra, called endmember signatures, and the corresponding abundance fractions [8–10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. Linear mixing model holds approximately when the mixing scale is macroscopic [13] and there is negligible interaction among distinct endmembers [3, 14]. If, however, the mixing scale is microscopic (or intimate mixtures) [15, 16] and the incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [17], the linear model is no longer accurate. Linear spectral unmixing has been intensively researched in the last years [9, 10, 12, 18–21]. It considers that a mixed pixel is a linear combination of endmember signatures weighted by the correspondent abundance fractions. Under this model, and assuming that the number of substances and their reflectance spectra are known, hyperspectral unmixing is a linear problem for which many solutions have been proposed (e.g., maximum likelihood estimation [8], spectral signature matching [22], spectral angle mapper [23], subspace projection methods [24,25], and constrained least squares [26]). In most cases, the number of substances and their reflectances are not known and, then, hyperspectral unmixing falls into the class of blind source separation problems [27]. Independent component analysis (ICA) has recently been proposed as a tool to blindly unmix hyperspectral data [28–31]. ICA is based on the assumption of mutually independent sources (abundance fractions), which is not the case of hyperspectral data, since the sum of abundance fractions is constant, implying statistical dependence among them. This dependence compromises ICA applicability to hyperspectral images as shown in Refs. [21, 32]. In fact, ICA finds the endmember signatures by multiplying the spectral vectors with an unmixing matrix, which minimizes the mutual information among sources. If sources are independent, ICA provides the correct unmixing, since the minimum of the mutual information is obtained only when sources are independent. This is no longer true for dependent abundance fractions. Nevertheless, some endmembers may be approximately unmixed. These aspects are addressed in Ref. [33]. Under the linear mixing model, the observations from a scene are in a simplex whose vertices correspond to the endmembers. Several approaches [34–36] have exploited this geometric feature of hyperspectral mixtures [35]. Minimum volume transform (MVT) algorithm [36] determines the simplex of minimum volume containing the data. The method presented in Ref. [37] is also of MVT type but, by introducing the notion of bundles, it takes into account the endmember variability usually present in hyperspectral mixtures. The MVT type approaches are complex from the computational point of view. Usually, these algorithms find in the first place the convex hull defined by the observed data and then fit a minimum volume simplex to it. For example, the gift wrapping algorithm [38] computes the convex hull of n data points in a d-dimensional space with a computational complexity of O(nbd=2cþ1), where bxc is the highest integer lower or equal than x and n is the number of samples. The complexity of the method presented in Ref. [37] is even higher, since the temperature of the simulated annealing algorithm used shall follow a log( ) law [39] to assure convergence (in probability) to the desired solution. Aiming at a lower computational complexity, some algorithms such as the pixel purity index (PPI) [35] and the N-FINDR [40] still find the minimum volume simplex containing the data cloud, but they assume the presence of at least one pure pixel of each endmember in the data. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. PPI algorithm uses the minimum noise fraction (MNF) [41] as a preprocessing step to reduce dimensionality and to improve the signal-to-noise ratio (SNR). The algorithm then projects every spectral vector onto skewers (large number of random vectors) [35, 42,43]. The points corresponding to extremes, for each skewer direction, are stored. A cumulative account records the number of times each pixel (i.e., a given spectral vector) is found to be an extreme. The pixels with the highest scores are the purest ones. N-FINDR algorithm [40] is based on the fact that in p spectral dimensions, the p-volume defined by a simplex formed by the purest pixels is larger than any other volume defined by any other combination of pixels. This algorithm finds the set of pixels defining the largest volume by inflating a simplex inside the data. ORA SIS [44, 45] is a hyperspectral framework developed by the U.S. Naval Research Laboratory consisting of several algorithms organized in six modules: exemplar selector, adaptative learner, demixer, knowledge base or spectral library, and spatial postrocessor. The first step consists in flat-fielding the spectra. Next, the exemplar selection module is used to select spectral vectors that best represent the smaller convex cone containing the data. The other pixels are rejected when the spectral angle distance (SAD) is less than a given thresh old. The procedure finds the basis for a subspace of a lower dimension using a modified Gram–Schmidt orthogonalizati on. The selected vectors are then projected onto this subspace and a simplex is found by an MV T pro cess. ORA SIS is oriented to real-time target detection from uncrewed air vehicles using hyperspectral data [46]. In this chapter we develop a new algorithm to unmix linear mixtures of endmember spectra. First, the algorithm determines the number of endmembers and the signal subspace using a newly developed concept [47, 48]. Second, the algorithm extracts the most pure pixels present in the data. Unlike other methods, this algorithm is completely automatic and unsupervised. To estimate the number of endmembers and the signal subspace in hyperspectral linear mixtures, the proposed scheme begins by estimating sign al and noise correlation matrices. The latter is based on multiple regression theory. The signal subspace is then identified by selectin g the set of signal eigenvalue s that best represents the data, in the least-square sense [48,49 ], we note, however, that VCA works with projected and with unprojected data. The extraction of the end members exploits two facts: (1) the endmembers are the vertices of a simplex and (2) the affine transformation of a simplex is also a simplex. As PPI and N-FIND R algorithms, VCA also assumes the presence of pure pixels in the data. The algorithm iteratively projects data on to a direction orthogonal to the subspace spanned by the endmembers already determined. The new end member signature corresponds to the extreme of the projection. The algorithm iterates until all end members are exhausted. VCA performs much better than PPI and better than or comparable to N-FI NDR; yet it has a computational complexity between on e and two orders of magnitude lower than N-FINDR. The chapter is structure d as follows. Section 19.2 describes the fundamentals of the proposed method. Section 19.3 and Section 19.4 evaluate the proposed algorithm using simulated and real data, respectively. Section 19.5 presents some concluding remarks.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO Introdução O acidente vascular cerebral (AVC) é a segunda causa de morte a nível mundial e a terceira nos países industrializados. A idade é o factor de risco não modificável mais importante para AVC, verificando-se um aumento da incidência de AVC até ao limite mais extremo da idade avançada. Presentemente, mais de metade de todos os AVCs ocorrem em doentes com mais de 75 anos, e, dado que a esperança de vida está a aumentar, sendo os muito idosos o segmento de crescimento mais rápido da população, é de esperar que este segmento da população venha a contribuir com uma proporção cada vez maior do número total de AVCs. O AVC no doente idoso apresenta características particulares, sendo diferente do AVC no doente mais jovem relativamente a factores de risco, a subtipos clínicos e etiológicos de AVC, e a prognóstico. O factor de risco ardiovascular mais importante para AVC em doentes idosos é a fibrilhação auricular. O enfarte cerebral em doentes idosos é clinicamente mais grave do que nos restantes doentes, associando-se esta maior gravidade a uma maior incidência de enfartes cardioembólicos. As taxas de letalidade são mais elevadas nos doentes mais idosos, e o estado funcional dos sobreviventes é, igualmente, pior, a curto e a longo prazo. Contudo, uma proporção importante de doentes idosos com AVC sobrevive em bom estado funcional. Até agora, muito poucos estudos procuraram identificar factores preditivos independentes de resultado em doentes idosos com AVC em geral, de qualquer subtipo patológico, e menos ainda em doentes idosos apenas com AVC isquémico. Objectivos: O objectivo principal deste estudo consistiu em descrever a contribuição do AVC para a passagem de um estado independente para um estado de dependência ou morte numa coorte de doentes idosos que sofreram o seu primeiro AVC isquémico ao longo da vida, e em identificar os factores que a determinam. Paralelamente, como objectivo secundário, foi analisada a demografia, factores de risco, aracterísticas clínicas e de resultado da coorte de doentes idosos, estratificada em dois grupos de idade. Métodos: No período entre 1 de Julho de 2003 e 31 de Dezembro de 2005, foram recrutados todos os doentes com idade igual ou superior a 70 anos, internados consecutivamente no Serviço de Medicina I do Hospital Egas Moniz, pelo seu primeiro AVC isquémico ao longo da vida. Foi adoptada a definição de AVC da Organização Mundial de Saúde (OMS). Os doentes foram avaliados na fase aguda, à data da alta hospitalar e em consultas de seguimento aos 1, 3 e 6 meses. Foi elaborado um protocolo padronizado para a avaliação na fase aguda, e outro para as consultas de seguimento. O protocolo destinado à fase aguda incluía informação sobre: (1) dados sociodemográficos; (2) factores de risco vascular e outras comorbilidades; (3) avaliação cognitiva pré-AVC; (4) avaliação de incapacidade pré-AVC; (5) dados de avaliação médica geral na fase aguda; (6) índice de comorbilidade médica geral de Charlson; (7) dados de avaliação neurológica do doente, quer de uma forma especificada, quer sintetizados numa escala de gravidade dos défices neurológicos, a “National Institutes of Health Stroke Scale” (NIHSS) e na classificação clínica do “Oxfordshire Community Stroke Project” (OCSP); (8) resultados laboratoriais de rotina primeiros valores após o início do AVC); (9) resultados dos principais exames complementares de diagnóstico: TC crâneo-encefálica sem contraste, lectrocardiograma, ecocardiograma trans-torácico, doppler das artérias cervicais extracraneanas; e outros exames, em doentes seleccionados; (10) a classificação etiológica dos AVCs segundo os critérios do “Trial of Org 10172 in Acute Stroke Treatment” (TOAST); (11) principais complicações neurológicas e médicas, ocorridas durante o internamento; (12) principais intervenções terapêuticas; (13) estado vital (morte à data da alta ou até aos 28 dias; data e causa de morte); (14) gravidade dos défices neurológicos e estado funcional à data da alta; (15) destino após a alta.O protocolo elaborado para as avaliações de seguimento incluía informação sobre:(1) estado vital (morte; data de morte; causa de morte); (2) local de residência; (3)terapêutica efectuada; (4) ocorrência de eventos cerebrovasculares recorrentes ou cardiovasculares; (5) presença de sintomas e/ou sinais de insufuciência cardíaca; (6) avaliação da gravidade dos defices neurológicos residuais; (7) avaliação funcional; (8) nova avaliação cognitiva (realizada apenas na consulta dos 6 meses).A análise estatística consistiu, em primeiro lugar, numa análise descritiva da coorte global de doentes seguida de uma análise comparativa dos doentes estratificados em dois grupos de idade (< 80 versus @ 80 anos), relativamente ao conjunto de todas as variáveis independentes e de resultado; em segundo lugar, no subgrupo de doentes sem incapacidade pré-AVC, após um processo de selecção de variáveis, foram desenvolvidos, pelo método de regressão logística múltipla backward stepwise, modelos preditivos para o resultado “morte ou dependência” versus “estar vivo e independente” aos 6 meses. Para a selecção das variáveis, procedeu-se em primeiro lugar a análise bivariada, tendo sido removidas as variáveis que não apresentavam associação significativa com o resultado. Em segundo lugar, as restantes variáveis foram classificadas em cinco grupos, sendo o primeiro constituído pelas variáveis demográficas (género e idade), o segundo, por uma variável do exame clínico geral, o terceiro, pelas variáveis da avaliação neurológica inicial, o quarto, por uma variável imagiológica, e o quinto por uma variável de comorbilidade médica geral. Resultados: População geral de doentes Durante o período de 30 meses em que se procedeu ao recrutamento prospectivo de doentes, foram internados consecutivamente 145 doentes que preenchiam os critérios de inclusão, dos quais 142 aceitaram participar no estudo. A idade média dos doentes era de 79,5±6,0 anos e 69,7% eram do sexo feminino. O factor de risco vascular mais frequente no conjunto da população foi a hipertensão arterial, atingindo 73,2% dos doentes. A diabetes mellitus e o consumo de tabaco, passado ou corrente, foram presentes em igual proporção de doentes (27,5%, cada). A fibrilhação auricular, antes ou durante o internamento hospitalar, foi detectada em 39,3% dos doentes. A proporção de doentes com incapacidade prévia ao AVC (score de Rankin modificado pré-AVC > 2) foi de 19%, traduzindo, pelo menos em parte, a presença de numerosas comorbilidades (insuficiência cardíaca em 39,4% dos doentes; doença osteo-articular em 38,7%; incontinência de esfincteres em 31,0%; défice cognitivo em 18,4%; défice visual em 18,3%; e défice auditivo em 15,6%). O índice de comorbilidade de Charlson foi superior a 1 em 54,9% dos doentes. Na avaliação neurológica inicial, através da escala de NIHSS,aproximadamente metade dos doentes (50,7%) tinha um score igual ou superior a 7, sendo este o valor mediano deste score para o conjunto dos doentes. Aos 28 dias e seis meses, as taxas de letalidade foram de 5,6% e 22,5%, respectivamente. Dos sobreviventes, aos seis meses, 44,5% apresentava incapacidade moderada ou grave (score de Rankin modificado > 2). No conjunto de toda a população, a proporção de doentes com score de Rankin modificado > 2 aumentou de 19% antes do AVC para 57% aos seis meses, sendo de 34,5% a proporção de doentes com incapacidade moderada ou grave. Nos 115 doentes sem incapacidade antes do AVC, a taxa de letalidade, aos seis meses, foi de 19,1%, e dos sobreviventes, 34,5% ficaram com incapacidade moderada a grave (score de Rankin modificado > 2). Comparação dos doentes estratificados em dois grupos de idade Dos 142 doentes que aceitaram participar no estudo, 75 (52,8%) tinham idade igual ou superior a 80 anos. Neste grupo de doentes, em comparação com o grupo mais jovem, havia mais doentes do sexo feminino (77,3% versus 61,2%; p=0,037), mais viúvos (54,7% versus 37,3%; p=0,038), menos doentes a viver em suas casas com esposa/companheiro (34,7% versus 56,7%; p = 0,008), mais doentes a viver com familiares ou cuidador (34,7% versus 17,9%; p = 0,024), e mais doentes a viver em instituição (8,0% versus 0,0%; p=0,029). Relativamente aos factores de risco vascular, o grupo mais idoso apresentou uma frequência mais elevada de fibrilhação auricular pré ou intra-hospitalar (48,6% versus 28,8%; p = 0,016) e de insuficiência cardíaca (49,3% versus 28,4%; p = 0,011), e uma frequência mais baixa de antecedentes de tabagismo (20,0% versus 35,8%; p=0,035), consumo de álcool (6,7% versus 22,4%; p=0,007) e doença arterial periférica (2,7% versus 13,4%; p=0,017). A incapacidade prévia ao AVC, definida pelo Índice de Barthel (score <100), ou pela escala de Rankin modificada (score >2), foi mais frequente no grupo mais idoso (56,0% versus 31,3%, com p = 0,003 e 29,3% versus 7,5%, com p = 0,001, respectivamente). A proporção de doentes com pressão arterial (PA) sistólica inicial elevada é menor no grupo de doentes mais idoso (57,3% versus 76,1%; p=0,018). Na avaliação neurológica inicial, este grupo apresentou uma maior proporção de doentes com afundamento do estado de consciência (62,7% versus 31,3%; p<0,001), afasia (42,7% versus 17,9%; p = 0,001), alteração da motilidade ocular (36,0% versus 20,9%; p = 0,047), e com um score de NIHSS inicial @ 7 (65,3% versus 34,3%; p<0,001). A distribuição dos subtipos clínicos do OCSP foi diferente entre os dois grupos de doentes (p=0,001). Os enfartes total e parcial da circulação anterior (TACI e PACI, respectivamente) foram mais frequentes no grupo de doentes com idade mais avançada (18,7% versus 6,0%, para o TACI; 48,0% versus 28,4%, para o PACI). Os enfartes lacunares e da circulação posterior (LACI e POCI, respectivamente) foram mais frequentes no grupo de doentes mais novo (52,2% versus 29,3%, para o LACI; 13,4% versus 4,0%, para o POCI). Na classificação etiológica, apenas o AVC por oclusão de pequenos vasos foi mais frequente no grupo de doentes menos idoso (22,4% versus 2,7%; p < 0,001). No final do período de seguimento, o grupo de doentes mais idoso tinha uma maior proporção de casos fatais (33,3% versus 10,4%; p=0,001), e, nos sobreviventes, uma maior proporção de doentes incapacitados, quer com a incapacidade definida pelo índice de Barthel (score < 100) ou pela escala escala de Rankin modificada (score > 2) (78,0% versus 51,7% com p=0,004 e 56,0% versus 35,0% com p=0,027, respectivamente). Modelos preditivos Na análise multivariável foi incluído apenas o grupo de doentes que não tinha incapacidade prévia ao AVC, constituído pelos 115 doentes que tinham um score de Rankin pré-AVC igual ou inferior a 2. No desenvolvimento dos modelos, as variáveis idade e género, a PA sistólica inicial codificada (@140 mmHg), a variável de imagem “cortical extenso” e o índice de comorbilidade de Charlson, são comuns a todos eles. As variáveis neurológicas, diferentes de modelo para modelo, são: o score de NIHSS, no modelo1; o score de coma de Glasgow (15 versus <15), no modelo 2; o subtipo clínico TACI, no modelo 3; e as variáveis neurológicas clínicas, afasia, extinção, parésia de mais do que um membro, campos visuais e motilidade ocular, no modelo 4. O modelo 1, em que o score de NIHSS constituiu a forma de avaliação do défice neurológico inicial, foi o que teve melhor exactidão preditiva, classificando correctamente 85,2% dos doentes e explicando 60% da variância no resultado (R2 de Nagelkerke). A capacidade discriminativa deste modelo, medida através da area under the receiver operating characteristic (ROC) curve (AUC), foi a mais elevada (0,893), embora não sendo estatisticamente diferente da AUC dos outros modelos. Os preditores independentes de mau resultado neste modelo foram o género feminino, a PA sistólica inicial @ 140 mmHg e o score de NIHSS inicial. Em todos os restantes modelos, as variáveis da avaliação neurológica inicial foram igualmente preditores independentes de resultado, em conjunto com o género feminino e o índice de comorbilidade de Charlson. A idade e a PA sistólica inicial foram também preditores independentes de resultado nos modelos 3 e 4, e a variável “cortical extenso” no modelo 2. Conclusões No presente estudo, considerando a totalidade dos doentes, aos 6 meses após o AVC, as proporções dos doentes que morrem ou ficam incapacitados, em particular a dos doentes incapacitados, são mais altas do que as encontradas em estudos incluíndo doentes de todas as idades com o seu primeiro AVC isquémico, reflectindo o pior prognóstico dos doentes mais idosos com AVC isquémico, em que uma proporção importante apresenta incapacidade já antes do AVC. No entanto, considerando apenas os doentes sem incapacidade prévia ao AVC, as proporções encontradas para morte ou incapacidade aos 6 meses foram próximas das de estudos de base populacional incluíndo doentes de todas as idades com o seu primeiro AVC isquémico. O presente estudo demonstrou que em doentes idosos que sofrem o seu primeiro AVC isquémico ao longo da vida, e que não tinham incapacidade prévia ao AVC, a gravidade do défice neurológico inicial é, do mesmo modo que nos doentes com AVC isquémico de todas as idades, o principal preditor independente de resultado. O score de NIHSS demonstrou ser um importante preditor independente de resultado em doentes idosos com AVC isquémico, eliminando a contribuição independente para o resultado de vários outros preditores potenciais, o que não aconteceu quando a gravidade do AVC foi medida através de outras variáveis de validade e fiabilidade mais incerta. O presente estudo demonstra como o resultado de uma análise multivariável é fortemente afectado pelas variáveis independentes utilizadas. Os vários modelos apenas diferiam na forma como foi avaliada a gravidade neurológica do AVC, originando, mesmo assim, resultados bastante diferentes. Este facto reforça a necessidade de utilizar para o desenvolvimento dos modelos variáveis clinicamente relevantes, com elevada fiabilidade e validade comprovadas. Uma das características dos doentes muito idosos é a presença de múltiplas comorbilidades simultaneamente. O presente estudo sugere que o efeito da comorbilidade sobre o resultado pode ocorrer por intermédio da maior gravidade neurológica do AVC,embora estes resultados necessitem de ser confirmados em estudos com maior número de doentes. Este achado, a confirmar-se, é da maior importância, levando a que a prevenção e tratamento da patologia cardiovascular e cerebrovascular deva ser encarada como um todo. O presente estudo mostra que os doentes muito idosos com AVC isquémico apresentam características epidemiológicas e clínicas específicas, mesmo quando a comparação é feita entre dois diferentes estratos de doentes idosos. Em particular, a maior frequência,neste grupo de doentes, de fibrilhação auricular, associada à maior frequência dos enfartes TACI e PACI da classificação clínica do OCSP, que são os subtipos clínicos mais frequentemente de etiologia cardioembólica, têm importantes implicações relativamente a prevenção e tratamento, reforçando a importância da anticoagulação terapêutica tanto para prevenção primária como secundária.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper proposes a PSO based approach to increase the probability of delivering power to any load point by identifying new investments in distribution energy systems. The statistical failure and repair data of distribution components is the main basis of the proposed methodology that uses a fuzzyprobabilistic modeling for the components outage parameters. The fuzzy membership functions of the outage parameters of each component are based on statistical records. A Modified Discrete PSO optimization model is developed in order to identify the adequate investments in distribution energy system components which allow increasing the probability of delivering power to any customer in the distribution system at the minimum possible cost for the system operator. To illustrate the application of the proposed methodology, the paper includes a case study that considers a 180 bus distribution network.