913 resultados para large-sample


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hyperspectral remote sensing exploits the electromagnetic scattering patterns of the different materials at specific wavelengths [2, 3]. Hyperspectral sensors have been developed to sample the scattered portion of the electromagnetic spectrum extending from the visible region through the near-infrared and mid-infrared, in hundreds of narrow contiguous bands [4, 5]. The number and variety of potential civilian and military applications of hyperspectral remote sensing is enormous [6, 7]. Very often, the resolution cell corresponding to a single pixel in an image contains several substances (endmembers) [4]. In this situation, the scattered energy is a mixing of the endmember spectra. A challenging task underlying many hyperspectral imagery applications is then decomposing a mixed pixel into a collection of reflectance spectra, called endmember signatures, and the corresponding abundance fractions [8–10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. Linear mixing model holds approximately when the mixing scale is macroscopic [13] and there is negligible interaction among distinct endmembers [3, 14]. If, however, the mixing scale is microscopic (or intimate mixtures) [15, 16] and the incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [17], the linear model is no longer accurate. Linear spectral unmixing has been intensively researched in the last years [9, 10, 12, 18–21]. It considers that a mixed pixel is a linear combination of endmember signatures weighted by the correspondent abundance fractions. Under this model, and assuming that the number of substances and their reflectance spectra are known, hyperspectral unmixing is a linear problem for which many solutions have been proposed (e.g., maximum likelihood estimation [8], spectral signature matching [22], spectral angle mapper [23], subspace projection methods [24,25], and constrained least squares [26]). In most cases, the number of substances and their reflectances are not known and, then, hyperspectral unmixing falls into the class of blind source separation problems [27]. Independent component analysis (ICA) has recently been proposed as a tool to blindly unmix hyperspectral data [28–31]. ICA is based on the assumption of mutually independent sources (abundance fractions), which is not the case of hyperspectral data, since the sum of abundance fractions is constant, implying statistical dependence among them. This dependence compromises ICA applicability to hyperspectral images as shown in Refs. [21, 32]. In fact, ICA finds the endmember signatures by multiplying the spectral vectors with an unmixing matrix, which minimizes the mutual information among sources. If sources are independent, ICA provides the correct unmixing, since the minimum of the mutual information is obtained only when sources are independent. This is no longer true for dependent abundance fractions. Nevertheless, some endmembers may be approximately unmixed. These aspects are addressed in Ref. [33]. Under the linear mixing model, the observations from a scene are in a simplex whose vertices correspond to the endmembers. Several approaches [34–36] have exploited this geometric feature of hyperspectral mixtures [35]. Minimum volume transform (MVT) algorithm [36] determines the simplex of minimum volume containing the data. The method presented in Ref. [37] is also of MVT type but, by introducing the notion of bundles, it takes into account the endmember variability usually present in hyperspectral mixtures. The MVT type approaches are complex from the computational point of view. Usually, these algorithms find in the first place the convex hull defined by the observed data and then fit a minimum volume simplex to it. For example, the gift wrapping algorithm [38] computes the convex hull of n data points in a d-dimensional space with a computational complexity of O(nbd=2cþ1), where bxc is the highest integer lower or equal than x and n is the number of samples. The complexity of the method presented in Ref. [37] is even higher, since the temperature of the simulated annealing algorithm used shall follow a log( ) law [39] to assure convergence (in probability) to the desired solution. Aiming at a lower computational complexity, some algorithms such as the pixel purity index (PPI) [35] and the N-FINDR [40] still find the minimum volume simplex containing the data cloud, but they assume the presence of at least one pure pixel of each endmember in the data. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. PPI algorithm uses the minimum noise fraction (MNF) [41] as a preprocessing step to reduce dimensionality and to improve the signal-to-noise ratio (SNR). The algorithm then projects every spectral vector onto skewers (large number of random vectors) [35, 42,43]. The points corresponding to extremes, for each skewer direction, are stored. A cumulative account records the number of times each pixel (i.e., a given spectral vector) is found to be an extreme. The pixels with the highest scores are the purest ones. N-FINDR algorithm [40] is based on the fact that in p spectral dimensions, the p-volume defined by a simplex formed by the purest pixels is larger than any other volume defined by any other combination of pixels. This algorithm finds the set of pixels defining the largest volume by inflating a simplex inside the data. ORA SIS [44, 45] is a hyperspectral framework developed by the U.S. Naval Research Laboratory consisting of several algorithms organized in six modules: exemplar selector, adaptative learner, demixer, knowledge base or spectral library, and spatial postrocessor. The first step consists in flat-fielding the spectra. Next, the exemplar selection module is used to select spectral vectors that best represent the smaller convex cone containing the data. The other pixels are rejected when the spectral angle distance (SAD) is less than a given thresh old. The procedure finds the basis for a subspace of a lower dimension using a modified Gram–Schmidt orthogonalizati on. The selected vectors are then projected onto this subspace and a simplex is found by an MV T pro cess. ORA SIS is oriented to real-time target detection from uncrewed air vehicles using hyperspectral data [46]. In this chapter we develop a new algorithm to unmix linear mixtures of endmember spectra. First, the algorithm determines the number of endmembers and the signal subspace using a newly developed concept [47, 48]. Second, the algorithm extracts the most pure pixels present in the data. Unlike other methods, this algorithm is completely automatic and unsupervised. To estimate the number of endmembers and the signal subspace in hyperspectral linear mixtures, the proposed scheme begins by estimating sign al and noise correlation matrices. The latter is based on multiple regression theory. The signal subspace is then identified by selectin g the set of signal eigenvalue s that best represents the data, in the least-square sense [48,49 ], we note, however, that VCA works with projected and with unprojected data. The extraction of the end members exploits two facts: (1) the endmembers are the vertices of a simplex and (2) the affine transformation of a simplex is also a simplex. As PPI and N-FIND R algorithms, VCA also assumes the presence of pure pixels in the data. The algorithm iteratively projects data on to a direction orthogonal to the subspace spanned by the endmembers already determined. The new end member signature corresponds to the extreme of the projection. The algorithm iterates until all end members are exhausted. VCA performs much better than PPI and better than or comparable to N-FI NDR; yet it has a computational complexity between on e and two orders of magnitude lower than N-FINDR. The chapter is structure d as follows. Section 19.2 describes the fundamentals of the proposed method. Section 19.3 and Section 19.4 evaluate the proposed algorithm using simulated and real data, respectively. Section 19.5 presents some concluding remarks.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo tem como objetivo principal caraterizar as práticas de GRH existentes nas grandes empresas da Cidade da Praia. Neste sentido, foi realizada uma abordagem teórica à evolução da GRH e identificadas as práticas de GRH, capazes de reconhecer nas pessoas um recurso determinante no sucesso organizacional. O presente estudo caracteriza as práticas de GRH desenvolvidas pelas empresas da nossa amostra; o grau de intervenção do departamento de recursos humanos no desenvolvimento dessas práticas. Simultaneamente, é apresentada a caracterização das empresas e do departamento de RH. A uma amostra de 40 empresas foi aplicado um inquérito por questionário que permitiu concluir que (1) as práticas mais desenvolvidas são a contratação e as práticas de remuneração direta ou económica; (2) na maioria das práticas de GRH desenvolvidas, o DRH tem um elevado grau de intervenção no desenvolvimento e implementação das práticas de GRH; (3) os responsáveis de RH não possuem formação específica na área de GRH.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A sample of P. brasiliensis isolated from the spleen and the liver of an armadillo (Dasipus novencinctus) has been analysed under a mycological and immunochemical viewpoint. The armadillo was captured in an area of Tucuruí (State of Pará, Brazil), the animal being already established as an enzootic reservoir of P. brasiliensis at that region of the country. This sample maintained in the fungal collection of the Tropical Medicine Institute of São Paulo (Brazil) numbered 135, has got all the characteristics of P. brasiliensis, with a strong antigenic power and low virulence for guinea-pigs and Wistar rats. The specific exoantigen of P. brasiliensis - the glycoprotein with a molecular weight of 43 kDa - was easily demonstrated with double immunodiffusion, immunoelectrophoresis, SDS-PAGE and immunobloting techniques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No decorrer dos últimos anos tem-se verificado um acréscimo do número de sistemas de videovigilância presentes nos mais diversos ambientes, sendo que estes se encontram cada vez mais sofisticados. Os casinos são um exemplo bastante popular da utilização destes sistemas sofisticados, sendo que vários casinos, hoje em dia, utilizam câmeras para controlo automático das suas operações de jogo. No entanto, atualmente existem vários tipos de jogos em que o controlo automático ainda não se encontra disponível, sendo um destes, o jogo Banca Francesa. A presente dissertação tem como objetivo propor um conjunto de algoritmos idealizados para um sistema de controlo e gestão do jogo de casino Banca Francesa através do auxílio de componentes pertencentes à área da computação visual, tendo em conta os contributos mais relevantes e existentes na área, elaborados por investigadores e entidades relacionadas. No decorrer desta dissertação são apresentados quatro módulos distintos, os quais têm como objetivo auxiliar os casinos a prevenir o acontecimento de fraudes durante o decorrer das suas operações, assim como auxiliar na recolha automática de resultados de jogo. Os quatro módulos apresentados são os seguintes: Dice Sample Generator – Módulo proposto para criação de casos de teste em grande escala; Dice Sample Analyzer – Módulo proposto para a deteção de resultados de jogo; Dice Calibration – Módulo proposto para calibração automática do sistema; Motion Detection – Módulo proposto para a deteção de fraude no jogo. Por fim, para cada um dos módulos, é apresentado um conjunto de testes e análises de modo a verificar se é possível provar o conceito para cada uma das propostas apresentadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The intensive use of distributed generation based on renewable resources increases the complexity of power systems management, particularly the short-term scheduling. Demand response, storage units and electric and plug-in hybrid vehicles also pose new challenges to the short-term scheduling. However, these distributed energy resources can contribute significantly to turn the shortterm scheduling more efficient and effective improving the power system reliability. This paper proposes a short-term scheduling methodology based on two distinct time horizons: hour-ahead scheduling, and real-time scheduling considering the point of view of one aggregator agent. In each scheduling process, it is necessary to update the generation and consumption operation, and the storage and electric vehicles status. Besides the new operation condition, more accurate forecast values of wind generation and consumption are available, for the resulting of short-term and very short-term methods. In this paper, the aggregator has the main goal of maximizing his profits while, fulfilling the established contracts with the aggregated and external players.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO - A exposição a formaldeído é reconhecidamente um dos mais importantes factores de risco presente nos laboratórios hospitalares de anatomia patológica. Neste contexto ocupacional, o formaldeído é utilizado em solução, designada comummente por formol. Trata-se de uma solução comercial de formaldeído, normalmente diluída a 10%, sendo pouco onerosa e, por esse motivo, a eleita para os trabalhos de rotina em anatomia patológica. A solução é utilizada como fixador e conservante do material biológico, pelo que as peças anatómicas a serem processadas são previamente impregnadas. No que concerne aos efeitos para a saúde do formaldeído, os efeitos locais parecem apresentar um papel mais importante comparativamente com os efeitos sistémicos, devido à sua reactividade e rápido metabolismo nas células da pele, tracto gastrointestinal e pulmões. Da mesma forma, a localização das lesões correspondem principalmente às zonas expostas às doses mais elevadas deste agente químico, ou seja, o desenvolvimento dos efeitos tóxicos dependerá mais da intensidade da dose externa do que da duração da exposição. O efeito do formaldeído no organismo humano mais facilmente detectável é a acção irritante, transitória e reversível sobre as mucosas dos olhos e aparelho respiratório superior (naso e orofaringe), o que acontece em geral para exposições frequentes e superiores a 1 ppm. Doses elevadas são citotóxicas e podem conduzir a degenerescência e necrose das mucosas e epitélios. No que concerne aos efeitos cancerígenos, a primeira avaliação efectuada pela International Agency for Research on Cancer data de 1981, actualizada em 1982, 1987, 1995 e 2004, considerando-o como um agente cancerígeno do grupo 2A (provavelmente carcinogénico). No entanto, a mais recente avaliação, em 2006, considera o formaldeído no Grupo 1 (agente carcinogénico) com base na evidência de que a exposição a este agente é susceptível de causar cancro nasofaríngeo em humanos. Constituiu objectivo principal deste estudo caracterizar a exposição profissional a formaldeído nos laboratórios hospitalares de anatomia patológica Portugueses. Pretendeu-se, ainda, descrever os fenómenos ambientais da contaminação ambiental por formaldeído e explorar eventuais associações entre variáveis. Considerou-se uma amostra de 10 laboratórios hospitalares de anatomia patológica, avaliada a exposição dos três grupos profissionais por comparação com os dois referenciais de exposição e, ainda, conhecidos os valores de concentração máxima em 83 actividades. Foram aplicados simultaneamente dois métodos distintos de avaliação ambiental: um dos métodos (Método 1) fez uso de um equipamento de leitura directa com o princípio de medição por Photo Ionization Detection, com uma lâmpada de 11,7 eV e, simultaneamente, realizou-se o registo da actividade. Este método disponibilizou dados para o referencial de exposição da concentração máxima; o outro método (Método 2) traduziu-se na aplicação do método NIOSH 2541, implicando o uso de bombas de amostragem eléctricas de baixo caudal e posterior processamento analítico das amostras por cromatografia gasosa. Este método, por sua vez, facultou dados para o referencial de exposição da concentração média ponderada. As estratégias de medição de cada um dos métodos e a definição dos grupos de exposição existentes neste contexto ocupacional, designadamente os Técnicos de Anatomia Patológica, os Médicos Anatomo-Patologistas e os Auxiliares, foram possíveis através da informação disponibilizada pelas técnicas de observação da actividade da análise (ergonómica) do trabalho. Estudaram-se diversas variáveis independentes, nomeadamente a temperatura ambiente e a humidade relativa, a solução de formaldeído utilizada, as condições de ventilação existentes e o número médio de peças processadas por dia em cada laboratório. Para a recolha de informação sobre estas variáveis foi preenchida, durante a permanência nos laboratórios estudados, uma Grelha de Observação e Registo. Como variáveis dependentes seleccionaram-se três indicadores de contaminação ambiental, designadamente o valor médio das concentrações superiores a 0,3 ppm em cada laboratório, a Concentração Média Ponderada obtida para cada grupo de exposição e o Índice do Tempo de Regeneração de cada laboratório. Os indicadores foram calculados e definidos através dos dados obtidos pelos dois métodos de avaliação ambiental aplicados. Baseada no delineado pela Universidade de Queensland, foi ainda aplicada uma metodologia de avaliação do risco de cancro nasofaríngeo nas 83 actividades estudadas de modo a definir níveis semi-quantitativos de estimação do risco. Para o nível de Gravidade considerou-se a informação disponível em literatura científica que define eventos biológicos adversos, relacionados com o modo de acção do agente químico e os associa com concentrações ambientais de formaldeído. Para o nível da Probabilidade utilizou-se a informação disponibilizada pela análise (ergonómica) de trabalho que permitiu conhecer a frequência de realização de cada uma das actividades estudadas. A aplicação simultânea dos dois métodos de avaliação ambiental resultou na obtenção de resultados distintos, mas não contraditórios, no que concerne à avaliação da exposição profissional a formaldeído. Para as actividades estudadas (n=83) verificou-se que cerca de 93% dos valores são superiores ao valor limite de exposição definido para a concentração máxima (VLE-CM=0,3 ppm). O “exame macroscópico” foi a actividade mais estudada e onde se verificou a maior prevalência de resultados superiores ao valor limite (92,8%). O valor médio mais elevado da concentração máxima (2,04 ppm) verificou-se no grupo de exposição dos Técnicos de Anatomia Patológica. No entanto, a maior amplitude de resultados observou-se no grupo dos Médicos Anatomo-Patologistas (0,21 ppm a 5,02 ppm). No que respeita ao referencial da Concentração Média Ponderada, todos os valores obtidos nos 10 laboratórios estudados para os três grupos de exposição foram inferiores ao valor limite de exposição definido pela Occupational Safety and Health Administration (TLV-TWA=0,75 ppm). Verificou-se associação estatisticamente significativa entre o número médio de peças processadas por laboratório e dois dos três indicadores de contaminação ambiental utilizados, designadamente o valor médio das concentrações superiores a 0,3 ppm (p=0,009) e o Índice do Tempo de Regeneração (p=0,001). Relativamente à temperatura ambiente não se observou associação estatisticamente significativa com nenhum dos indicadores de contaminação ambiental utilizados. A humidade relativa apresentou uma associação estatisticamente significativa apenas com o indicador de contaminação ambiental da Concentração Média Ponderada de dois grupos de exposição, nomeadamente com os Médicos Anatomo-Patologistas (p=0,02) e os Técnicos de Anatomia Patológica (p=0,04). A aplicação da metodologia de avaliação do risco nas 83 actividades estudadas permitiu verificar que, em cerca de dois terços (35%), o risco foi classificado como (pelo menos) elevado e, ainda, constatar que 70% dos laboratórios apresentou pelo menos 1 actividade com a classificação de risco elevado. Da aplicação dos dois métodos de avaliação ambiental e das informações obtidas para os dois referenciais de exposição pode concluir-se que o referencial mais adequado é a Concentração Máxima por estar associado ao modo de actuação do agente químico. Acresce, ainda, que um método de avaliação ambiental, como o Método 1, que permite o estudo das concentrações de formaldeído e simultaneamente a realização do registo da actividade, disponibiliza informações pertinentes para a intervenção preventiva da exposição por permitir identificar as actividades com a exposição mais elevada, bem como as variáveis que a condicionam. As peças anatómicas apresentaram-se como a principal fonte de contaminação ambiental por formaldeído neste contexto ocupacional. Aspecto de particular interesse, na medida que a actividade desenvolvida neste contexto ocupacional e, em particular na sala de entradas, é centrada no processamento das peças anatómicas. Dado não se perspectivar a curto prazo a eliminação do formaldeído, devido ao grande número de actividades que envolvem ainda a utilização da sua solução comercial (formol), pode concluir-se que a exposição a este agente neste contexto ocupacional específico é preocupante, carecendo de uma intervenção rápida com o objectivo de minimizar a exposição e prevenir os potenciais efeitos para a saúde dos trabalhadores expostos. ---------------- ABSTRACT - Exposure to formaldehyde is recognized as one of the most important risk factors present in anatomy and pathology laboratories from hospital settings. In this occupational setting, formaldehyde is used in solution, typically diluted to 10%, and is an inexpensive product. Because of that, is used in routine work in anatomy and pathology laboratories. The solution is applied as a fixative and preservative of biological material. Regarding formaldehyde health effects, local effects appear to have a more important role compared with systemic effects, due to his reactivity and rapid metabolism in skin, gastrointestinal tract and lungs cells. Likewise, lesions location correspond mainly to areas exposed to higher doses and toxic effects development depend more on external dose intensity than exposure duration. Human body formaldehyde effect more easily detectable is the irritating action, transient and reversible on eyes and upper respiratory tract (nasal and throat) membranes, which happen in general for frequent exposure to concentrations higher than 1 ppm. High doses are cytotoxic and can lead to degeneration, and also to mucous membranes and epithelia necrosis. With regard to carcinogenic effects, first assessment performed by International Agency for Research on Cancer in 1981, updated in 1982, 1987, 1995 and 2004, classified formaldehyde in Group 2A (probably carcinogenic). However, most recent evaluation in 2006, classifies formaldehyde carcinogenic (Group 1), based on evidence that exposure to this agent is likely to cause nasopharyngeal cancer in humans. This study principal objective was to characterize occupational exposure to formaldehyde in anatomy and pathology hospital laboratories, as well to describe formaldehyde environmental contamination phenomena and explore possible associations between variables. It was considered a sample of 10 hospital pathology laboratories, assessed exposure of three professional groups for comparison with two exposure metrics, and also knows ceiling concentrations in 83 activities. Were applied, simultaneously, two different environmental assessment methods: one method (Method 1) using direct reading equipment that perform measure by Photo Ionization Detection, with 11,7 eV lamps and, simultaneously, make activity description and film. This method provided data for ceiling concentrations for each activity study (TLV-C). In the other applied method (Method 2), air sampling and formaldehyde analysis were performed according to NIOSH method (2541). This method provided data average exposure concentration (TLV-TWA). Measuring and sampling strategies of each methods and exposure groups definition (Technicians, Pathologists and Assistants) was possible by information provided by activities (ergonomic) analysis. Several independent variables were studied, including temperature and relative humidity, formaldehyde solution used, ventilation conditions, and also anatomic pieces mean value processed per day in each laboratory. To register information about these variables was completed an Observation and Registration Grid. Three environmental contamination indicators were selected has dependent variables namely: mean value from concentrations exceeding 0,3 ppm in each laboratory, weighted average concentration obtained for each exposure group, as well each laboratory Time Regeneration Index. These indicators were calculated and determined through data obtained by the two environmental assessment methods. Based on Queensland University proposal, was also applied a methodology for assessing nasopharyngeal cancer risk in 83 activities studied in order to obtain risk levels (semi-quantitative estimation). For Severity level was considered available information in scientific literature that defines biological adverse events related to the chemical agent action mode, and associated with environment formaldehyde concentrations. For Probability level was used information provided by (ergonomic) work analysis that helped identifies activity frequency. Environmental assessment methods provide different results, but not contradictory, regarding formaldehyde occupational exposure evaluation. In the studied activities (n=83), about 93% of the values were above exposure limit value set for ceiling concentration in Portugal (VLE-CM = 0,3 ppm). "Macroscopic exam" was the most studied activity, and obtained the higher prevalence of results superior than 0,3 ppm (92,8%). The highest ceiling concentration mean value (2,04 ppm) was obtain in Technicians exposure group, but a result wider range was observed in Pathologists group (0,21 ppm to 5,02 ppm). Concerning Method 2, results from the three exposure groups, were all lower than limit value set by Occupational Safety and Health Administration (TLV-TWA=0,75ppm). There was a statistically significant association between anatomic pieces mean value processed by each laboratory per day, and two of the three environmental contamination indicators used, namely average concentrations exceeding 0,3 ppm (p=0,009) and Time Regeneration Index (p=0,001). Temperature was not statistically associated with any environmental contamination used indicators. Relative humidity had a statistically significant association only with one environmental contamination indicator, namely weighted average concentration, particularly with Pathologists group (p=0,02) and Technicians group (p=0,04). Risk assessment performed in the 83 studied activities showed that around two thirds (35%) were classified as (at least) high, and also noted that 70% of laboratories had at least 1 activity with high risk rating. The two environmental assessment methods application, as well information obtained from two exposure metrics, allowed to conclude that most appropriate exposure metric is ceiling concentration, because is associated with formaldehyde action mode. Moreover, an environmental method, like Method 1, which allows study formaldehyde concentrations and relates them with activity, provides relevant information for preventive information, since identifies the activity with higher exposure, as well variables that promote exposure. Anatomic pieces represent formaldehyde contamination main source in this occupational setting, and this is of particular interest because all activities are focused on anatomic pieces processing. Since there is no prospect, in short term, for formaldehyde use elimination due to large number of activities that still involve solution use, it can be concluded that exposure to this agent, in this particular occupational setting, is preoccupant, requiring an rapid intervention in order to minimize exposure and prevent potential health effects in exposed workers.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We describe a case of human T-lymphotropic virus type I associated myelopathy in a 50-year old woman in Nigeria. The patient presented with progressive loss of tone to the two lower limbs and later inability to walk. The HTLV-I antibody presence in the plasma collected from the patient was repeatedly detected by enzyme immunoassays (Abbott HTLV-I EIA and Coulter SELECT-HTLV I/II) and confirmed by Western blot technique. In addition, HTLV-I DNA was amplified from the genomic DNA isolated from the peripheral blood mononuclear cells of the patient by the polymerase chain reaction technique. This finding is significant being the first report of association of HTLV-I with myelopathy in Nigeria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The aims of the this prospective study were to analyze physical activity (PA) engagement during the first and second trimesters, considering the different guidelines published on PA, to document the individual characteristics associated with the accomplishment of these guidelines and to examine pregnant women’s perceived barriers to leisure PA, using a socioecological framework. A sample of 133 pregnant women in two stages – at 10–12 weeks’ gestation (T1) and 20– 22 weeks’ gestation (T2) – were evaluated. PA was assessed by accelerometry during the T1 and T2 evaluation stages. Socio-demographic characteristics, lifestyle factors and barriers to leisure PA were assessed via questionnaire. A large proportion of women (ranging from 32% to 96%) did not reach the levels of PA recommended by the guidelines. There were no significant differences between T1 and T2 with regard to compliance with PA recommendations. A decrease in PA levels from T1 to T2 was noted for all recommendations. No associations were found between participants’ characteristics and adherence to the recommendations in T1 and T2. No significant differences were found in barriers to leisure PA between T1 and T2. The most commonly reported barriers to leisure PA were intrapersonal, not health related. Our results indicate that there were no differences between trimesters regarding compliance of PA recommendations, and perceived barriers were similar in both trimesters.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho, efetuado na Estação de Tratamento de Águas Residuais do Freixo (ETAR do Freixo), decorreu durante um período de nove meses, (entre Dezembro de 2012 e Agosto de 2013), e teve como principais objetivos: - a observação microscópica e respetiva identificação dos organismos presentes nas lamas ativadas dos reatores biológicos da ETAR (incidindo nos protozoários, metazoários e bactérias filamentosas); - estabelecer a relação entre os organismos identificados/quantidade respetiva e a sedimentabilidade das lamas ativadas e sua influência no processo de depuração; - avaliar a variação das espécies identificadas com as alterações processuais. Para o efeito, a metodologia utilizada foi: - a colheita diária de amostras em vários pontos da ETAR; - a determinação dos parâmetros operacionais e caracterização das amostras recolhidas, tendo sido efetuadas 6039 análises físico-químicas, incluindo ao afluente à ETAR, ao afluente e ao conteúdo dos dois reatores biológicos, à corrente de recirculação de lamas e ao efluente; - a visualização diária microscópica ótica sem contraste de fase dos microrganismos presentes nos reatores biológicos; - a visualização microscópica ótica com contraste de fase da microfauna presente nos reatores biológicos, sendo efetuadas 16 identificações e quantificações dos protozoários presentes nas lamas ativadas dos dois reatores e 10 identificações e quantificações das bactérias filamentosas presentes nos dois reatores biológicos. O início do estudo ocorreu num período em que se começou a verificar um aumento excessivo de espumas nos decantadores secundários, resultando numa fraca sedimentabilidade das lamas e numa menor qualidade do efluente final. Na tentativa de reduzir a excessiva ascensão do manto de lamas que se verificou, foram efectuadas alterações operacionais, consistindo: - na alteração da razão de recirculação da decantação secundária para os reatores biológicos; - na introdução de um composto altamente concentrado em matéria orgânica na corrente de recirculação de lamas; - na alteração da extração de lamas biológicas. Verificou-se que as alterações processuais efetuadas foram muito eficazes na diminuição do manto de lamas da decantação secundária, bem como muito eficazes na qualidade do efluente final. Durante os meses de Fevereiro a Agosto fez-se o acompanhamento diário de todas as condições de operação de modo a manter e validar o procedimento de operação, o qual se considerou muito eficaz em termos de obtenção de uma água tratada de excelente qualidade. Durante o estudo efetuado, verificou-se que a população microbiológica existente nos dois reatores biológicos se manteve praticamente inalterada durante todo o período, sendo os móveis de fundo e os sésseis os grupos dominantes. Esta dominância traduziu-se na elevada qualidade do efluente final que se observou a partir do mês de Fevereiro, tendo dificultado o estudo de novas condições de operação, mas facilitando a validação do procedimento adotado. No que se refere às bactérias filamentosas, verificou-se que são diversas as espécies presentes nos reatores biológicos e que existem em grande abundância, sendo que o Tipo 0092 é claramente dominante. O excessivo crescimento deste tipo de bactérias mostrou ser o maior problema a nível microbiológico no processo de tratamento da instalação, tornando-se crítico no período de inverno em que a temperatura e os picos de pluviosidade se mostraram condições favoráveis ao seu desenvolvimento. Para além da temperatura outros fatores mostraram-se responsáveis pelo seu crescimento tais como a razão Alimento/Microrganismo (A/M), a idade das lamas, a carga mássica afluente e o teor de oxigénio dissolvido nos reatores biológicos. Pode-se concluir que apesar de não se trabalhar com os valores teóricos dos parâmetros microbiológicos e operacionais considerados ideais, a ETAR do Freixo, possui um tratamento bastante eficaz na remoção da carga orgânica, na remoção de nutrientes e na remoção de sólidos suspensos totais, apesar da não existência de uma etapa de afinação final como a filtração.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O instável mas tendencialmente crescente preço dos combustíveis associado a preocupações ambientais cada vez mais enraizadas nas sociedades, têm vindo a despoletar uma maior atenção à procura de combustíveis alternativos. Por outro lado, várias projecções indicam um aumento muito acentuado do consumo energético global no curto prazo, fruto do aumento da população e do nível de industrialização das sociedades. Neste contexto, o biodiesel (ésteres de ácidos gordos) obtido através da transesterificação de triglicerídeos de origem vegetal ou animal, surge como a alternativa “verde” mais viável para utilização em equipamentos de combustão. A reacção de transesterificação é catalisada, por norma com recurso a catalisadores homogéneos alcalinos (NaOH ou KOH). Este tipo de processo, o único actualmente com expressão a nível industrial, apresenta algumas desvantagens que, para além de aumentarem o custo do produto final, contribuem para reduzir a benignidade do mesmo: a impossibilidade de reutilização do catalisador, o aumento do número e complexidade das etapas de separação e a produção de efluentes resultantes das referidas etapas. Com o intuito de minimizar ou eliminar estes problemas, vários catalisadores heterogéneos têm vindo a ser estudados para esta reacção. Apesar de muitos apresentarem resultados promissores, a grande maioria não tem viabilidade para aplicação industrial seja devido ao seu próprio custo, seja devido aos pré-tratamentos necessários à sua utilização. Entre estes catalisadores, o óxido de cálcio é talvez o que apresenta resultados mais promissores. O crescente número de estudos envolvendo este catalisador em detrimento de outros, é por si mesmo prova do potencial do CaO. A realização deste trabalho pretendia atingir os seguintes objectivos principais: • Avaliar a elegibilidade do óxido de cálcio enquanto catalisador da reacção de transesterificação de óleos alimentares usados com metanol; • Avaliar qual a sua influência nas características dos produtos finais; • Avaliar as diferenças de performance entre o óxido de cálcio activado em atmosfera inerte (N2) e em ar, enquanto catalisadores da reacção de transesterificação de óleos alimentares usados com metanol; • Optimizar as condições da reacção com recurso às ferramentas matemáticas disponibilizadas pelo planeamento factorial, através da variação de quatro factores chave de influência: temperatura, tempo, relação metanol / óleo e massa de catalisador utilizado. O CaO utlizado foi obtido a partir de carbonato de cálcio calcinado numa mufla a 750 °C durante 3 h. Foi posteriormente activado a 900 °C durante 2h, em atmosferas diferentes: azoto (CaO-N2) e ar (CaO-Ar). Avaliaram-se algumas propriedades dos catalisadores assim preparados, força básica, concentração de centros activos e áreas específicas, tendo-se obtido uma força básica situada entre 12 e 14 para ambos os catalisadores, uma concentração de centros activos de 0,0698 mmol/g e 0,0629 mmol/g e áreas específicas de 10 m2/g e 11 m2/g respectivamente para o CaO-N2 e CaO-Ar. Efectuou-se a transesterificação, com catálise homogénea, da mistura de óleos usados utilizada neste trabalho com o objectivo de determinar os limites para o teor de FAME’s (abreviatura do Inglês de Fatty Acid Methyl Esters’) que se poderiam obter. Foi este o parâmetro avaliado em cada uma das amostras obtidas por catálise heterogénea. Os planos factoriais realizados tiveram como objectivo maximizar a sua quantidade recorrendo à relação ideal entre tempo de reacção, temperatura, massa de catalisador e quantidade de metanol. Verificou-se que o valor máximo de FAME’s obtidos a partir deste óleo estava situado ligeiramente acima dos 95 % (m/m). Realizaram-se três planos factoriais com cada um dos catalisadores de CaO até à obtenção das condições óptimas para a reacção. Não se verificou influência significativa da relação entre a quantidade de metanol e a massa de óleo na gama de valores estudada, pelo que se fixou o valor deste factor em 35 ml de metanol / 85g de óleo (relação molar aproximada de 8:1). Verificou-se a elegibilidade do CaO enquanto catalisador para a reacção estudada, não se tendo observado diferenças significativas entre a performance do CaO-N2 e do CaO-Ar. Identificaram-se as condições óptimas para a reacção como sendo os valores de 59 °C para a temperatura, 3h para o tempo e 1,4 % de massa de catalisador relativamente à massa de óleo. Nas referidas condições, obtiveram-se produtos com um teor de FAME’s de 95,7 % na catálise com CaO-N2 e 95,3 % na catálise com CaO-Ar. Alguns autores de estudos consultados no desenvolvimento do presente trabalho, referiam como principal problema da utilização do CaO, a lixiviação de cálcio para os produtos obtidos. Este facto foi confirmado no presente trabalho e na tentativa de o contornar, tentou-se promover a carbonatação do cálcio com a passagem de ar comprimido através dos produtos e subsequente filtração. Após a realização deste tratamento, não mais se observaram alterações nas suas propriedades (aparecimento de turvação ou precipitados), no entanto, nos produtos obtidos nas condições óptimas, a concentração de cálcio determinada foi de 527 mg/kg no produto da reacção catalisada com CaO-N2 e 475 mg/kg com CaO-A. O óxido de cálcio apresentou-se como um excelente catalisador na transesterificação da mistura de óleos alimentares usados utilizada no presente trabalho, apresentando uma performance ao nível da obtida por catálise homogénea básica. Não se observaram diferenças significativas de performance entre o CaO-N2 e o CaO-Ar, sendo possível obter nas mesmas condições reaccionais produtos com teores de FAME’s superiores a 95 % utilizando qualquer um deles como catalisador. O elevado teor de cálcio lixiviado observado nos produtos, apresenta-se como o principal obstáculo à aplicação a nível industrial do óxido de cálcio como catalisador para a transesterificação de óleos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A case of atypical disseminated cutaneous histoplasmosis in a five-year old, otherwise healthy child, native and resident in São Paulo metropolitan area is reported. Cutaneous lesions were clinically atypical. Histologic examination disclosed a granulomatous reaction but no fungal structures could be demonstrated by specific staining nor by immunohistochemical reaction. The fungus was isolated from biopsy material on two different occasions, confirming diagnosis of an unusual fungal infection. The fungus, originally thought to be a Sepedonium sp. due to the large sized, hyaline or brownish colored tuberculated macroconidia and to lack of dimorphism (yeast form at 37 °C) produce H and M antigens, visualized by the immunodiffusion with rabbit anti-Histoplasma capsulatum hyperimmune serum. Patient’s serum sample was non reactive with H. capsulatum antigen by immunodiffusion, counterimmunoelectrophoresis and complement fixation tests, and immunoenzymatic assay failed to detect the specific circulating antigen. This serum was tested negative by double immunodiffusion when antigen obtained from one of the isolated samples was used. Both cultures were sent to Dr. Leo Kaufman, Ph.D. (Mycoses Immunodiagnostic Laboratory, CDC-Atlanta/USA), who identified them as H. capsulatum by the exoantigen and gen-probe tests. Both clinic and mycologic characteristics of the present case were atypical, suggesting the fungus isolated is an “aberrant variant” of H. capsulatum var. capsulatum, as described by SUTTON et al. in 199719. Treatment with itraconazole 100 mg/day led to cure within 90 days

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We report the observation of acid-fast Cyclospora cayetanensis oocysts in a sputum sample. The patient, a 60 year-old, HIV negative man, was successfully treated for pulmonary tuberculosis during 1997. On February 1998, he was admitted to our center due to loss of weight, cough with purulent expectoration, dysphonia and a radiological picture of pulmonary fibrosis. Bacilloscopic study of sputum (negative for acid-fast bacilli) stained with Ziehl-Neelsen technique showed large (8-10 µm) spherical, acid-fast Cyclospora cayetanensis oocysts. No other pathogens were isolated on cultures from this sample or from laryngeal biopsy. Serial parasitologic studies showed C. cayetanensis and also eggs of Trichuris trichiura, Ascaris lumbricoides and Hymenolepis nana and of Entamoeba coli cysts. The patient lives in the outskirts of Buenos Aires in a brick-made house with potable water and works as builder of sewers. He travelled in several occasions to the rural area of province of Tucumán which has poor sanitary conditions. C. cayetanensis is an emergent agent of diarrhea and as far as we know this is the first time the parasite is observed in respiratory samples.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The purpose of this study is to investigate the association between the satisfaction with HRM practices in an organization and the workers' perceived performance. We are interested in learning if indeed workers that are more satisfied with the organization’s practices will also perceive themselves as more hardworking than others, thus confirming the happy-productive worker hypothesis, from an individual perception standpoint. Data originates from a large Portuguese hospital, with a sample of 952 clinical and nonclinical hospital workers. Data was originally explored using SPSS software and later tested in AMOS software where a multiple regression model was constructed and tested. Results indicate that overall satisfaction with HRM practices are related with the workers’ perceived performance; most of the HRM satisfaction subscales also relate, except for pay and performance appraisal, that do not seem to be good predictors of the workers perceived performance. The present study is based on a single large public hospital, and thus, these findings need to be further tested in other settings. This study offers some clues regarding the areas of HRM that seem to be more related with the workers’ perceived performance, and hence provide an interesting framework for managers dealing with healthcare teams. This study contributes to the happy-productive worker hypothesis research, by including seldom used variables in the equation and taking a different perspective. Results provide new clues for investigation and practice regarding the areas of action in HRM that seem to be more prone to elicit perceived effort from the workers.