987 resultados para Threshold Limit Values
Resumo:
The wettability of polyimide surfaces microstructured using KrF laser radiation at fluences above the material ablation threshold was studied by static contact angle measurements. The laser-treated surfaces present a morphology consisting of conical features whose dimensions and areal density depend on the fluence. The effect of these parameters on the surface apparent contact angle depends on the wetting regime. When wetting occurs in the homogeneous regime, the apparent contact angle of the treated surfaces increases with the radiation fluence because the cone dimensions increase. In contrast, when wetting occurs in the heterogeneous regime, the apparent contact angle increases with the radiation fluence because the average distance between cones increases. The apparent water contact angle of the laser-treated surfaces can reach values as high as 162 degrees, as compared to 75 degrees for virgin polyimide.
Resumo:
Implementing monolithic DC-DC converters for low power portable applications with a standard low voltage CMOS technology leads to lower production costs and higher reliability. Moreover, it allows miniaturization by the integration of two units in the same die: the power management unit that regulates the supply voltage for the second unit, a dedicated signal processor, that performs the functions required. This paper presents original techniques that limit spikes in the internal supply voltage on a monolithic DC-DC converter, extending the use of the same technology for both units. These spikes are mainly caused by fast current variations in the path connecting the external power supply to the internal pads of the converter power block. This path includes two parasitic inductances inbuilt in bond wires and in package pins. Although these parasitic inductances present relative low values when compared with the typical external inductances of DC-DC converters, their effects can not be neglected when switching high currents at high switching frequency. The associated overvoltage frequently causes destruction, reliability problems and/or control malfunction. Different spike reduction techniques are presented and compared. The proposed techniques were used in the design of the gate driver of a DC-DC converter included in a power management unit implemented in a standard 0.35 mu m CMOS technology.
Resumo:
n a recent paper we reported an experimental study of two N-alkylimidazolium salts. These ionic compounds exhibit liquid crystalline behaviour with melting points above 50 degrees C in bulk. However, if they are sheared, a (possibly non-equilibrium) lamellar phase forms at room temperature. Upon shearing a thin film of the material between microscope slides, textures were observed that are strikingly similar to liquid (wet) foams. The images obtained from polarising optical microscopy (POM) were found to share many of the known quantitative properties of a two-dimensional foam coarsening process. Here we report an experimental study of this foam using a shearing system coupled with POM. The structure and evolution of the foam are investigated through the image analysis of time sequences of micrographs obtained for well-controlled sets of physical parameters (sample thickness, shear rate and temperature). In particular, we find that there is a threshold shear rate below which no foam can form. Above this threshold, a steady-state foam pattern is obtained where the mean cell area generally decreases with increasing shear rate. Furthermore, the steady-state internal cell angles and distribution of the cell number of sides deviate from their equilibrium (i.e. zero-shear) values.
Resumo:
The exposure index (lgM) obtained from a radiographic image may be a useful feedback indicator to the radiographer about the appropriate exposure level in routine clinical practice. This study aims to evaluate lgM in orthopaedic radiography performed in the standard clinical environment. We analysed the lgM of 267 exposures performed with an AGFA CR system. The mean value of lgM in our sample is 2.14. A significant difference (P=0.000<0.05) from 1.96 lgM reference is shown. Data show that 72% of exposures are above the 1.96 lgM and 42% are above the limit of 2.26. Median values of lgM are above 1.96 and below 2.26 for Speed class (SC) 200 (2.16) and SC400 (2.13). The interquartile range is lower in SC400 than in SC200. Data seem to indicate that lgM values are above the manufacturer’s reference of 1.96. Departmental exposure charts should be optimised to reduce the dose given to patients.
Resumo:
Hoje em dia, há cada vez mais informação audiovisual e as transmissões ou ficheiros multimédia podem ser partilhadas com facilidade e eficiência. No entanto, a adulteração de conteúdos vídeo, como informação financeira, notícias ou sessões de videoconferência utilizadas num tribunal, pode ter graves consequências devido à importância desse tipo de informação. Surge então, a necessidade de assegurar a autenticidade e a integridade da informação audiovisual. Nesta dissertação é proposto um sistema de autenticação de vídeo H.264/Advanced Video Coding (AVC), denominado Autenticação de Fluxos utilizando Projecções Aleatórias (AFPA), cujos procedimentos de autenticação, são realizados ao nível de cada imagem do vídeo. Este esquema permite um tipo de autenticação mais flexível, pois permite definir um limite máximo de modificações entre duas imagens. Para efectuar autenticação é utilizada uma nova técnica de autenticação de imagens, que combina a utilização de projecções aleatórias com um mecanismo de correcção de erros nos dados. Assim é possível autenticar cada imagem do vídeo, com um conjunto reduzido de bits de paridade da respectiva projecção aleatória. Como a informação de vídeo é tipicamente, transportada por protocolos não fiáveis pode sofrer perdas de pacotes. De forma a reduzir o efeito das perdas de pacotes, na qualidade do vídeo e na taxa de autenticação, é utilizada Unequal Error Protection (UEP). Para validação e comparação dos resultados implementou-se um sistema clássico que autentica fluxos de vídeo de forma típica, ou seja, recorrendo a assinaturas digitais e códigos de hash. Ambos os esquemas foram avaliados, relativamente ao overhead introduzido e da taxa de autenticação. Os resultados mostram que o sistema AFPA, utilizando um vídeo com qualidade elevada, reduz o overhead de autenticação em quatro vezes relativamente ao esquema que utiliza assinaturas digitais e códigos de hash.
Resumo:
Since collaborative networked organisations are usually formed by independent and heterogeneous entities, it is natural that each member holds his own set of values, and that conflicts among partners might emerge because of some misalignment of values. In contrast, it is often stated in literature that the alignment between the value systems of members involved in collaborative processes is a prerequisite for successful co-working. As a result, the issue of core value alignment in collaborative networks started to attract attention. However, methods to analyse such alignment are lacking mainly because the concept of 'alignment' in this context is still ill defined and shows a multifaceted nature. As a contribution to the area, this article introduces an approach based on causal models and graph theory for the analysis of core value alignment in collaborative networks. The potential application of the approach is then discussed in the virtual organisations' breeding environment context.
Resumo:
Collaborative networks are typically formed by heterogeneous and autonomous entities, and thus it is natural that each member has its own set of core-values. Since these values somehow drive the behaviour of the involved entities, the ability to quickly identify partners with compatible or common core-values represents an important element for the success of collaborative networks. However, tools to assess or measure the level of alignment of core-values are lacking. Since the concept of 'alignment' in this context is still ill-defined and shows a multifaceted nature, three perspectives are discussed. The first one uses a causal maps approach in order to capture, structure, and represent the influence relationships among core-values. This representation provides the basis to measure the alignment in terms of the structural similarity and influence among value systems. The second perspective considers the compatibility and incompatibility among core-values in order to define the alignment level. Under this perspective we propose a fuzzy inference system to estimate the alignment level, since this approach allows dealing with variables that are vaguely defined, and whose inter-relationships are difficult to define. Another advantage provided by this method is the possibility to incorporate expert human judgment in the definition of the alignment level. The last perspective uses a belief Bayesian network method, and was selected in order to assess the alignment level based on members' past behaviour. An example of application is presented where the details of each method are discussed.
Resumo:
O presente trabalho foi realizado no âmbito do Trabalho Final de Mestrado em Engenharia Civil do Instituto Superior de Engenharia de Lisboa. O trabalho consistiu em realizar um Projecto de Execução de uma Passagem Superior com três tramos em Betão Armado e Pré-Esforçado. Foram tidos em conta os condicionamentos da topografia local, geotécnica e de traçado. O dimensionamento dos elementos estruturais foi efectuado de acordo com a regulamentação portuguesa actualmente em vigor, nomeadamente o Regulamento de Segurança e Acções (RSA) e o Regulamento de Estruturas de Betão Armado e Pré-esforçado (REBAP). A verificação da segurança foi efectuada em relação aos Estados Limites Últimos e de Utilização. Para a análise estrutural foi utilizado o programa de cálculo automático SAP2000.
Resumo:
The scaling exponent of 1.6 between anomalous Hall and longitudinal conductivity, characteristic of the universal Hall mechanism in dirty-metal ferromagnets, emerges from a series of CrO2 films as we systematically increase structural disorder. Magnetic disorder in CrO2 increases with temperature and this drives a separate topological Hall mechanism. We find that these terms are controlled discretely by structural and magnetic defect populations, and their coexistence leads to apparent divergence from exponent 1.6, suggesting that the universal term is more prevalent than previously realized.
Resumo:
OBJECTIVE: To establish reference values for hippuric acid (HA) excreted in the urine, and to evaluate the impact of age, gender, alcohol, and tobacco, on these levels in a population nonexposed to toluene. METHODS: Reference values for hippuric acid in urine were determined in 115 toluene nonexposed healthy volunteers, from Alfenas city, Southeastern Brazil. A questionnaire was applied to each volunteer and data on occupational and personal habits were collected. Biochemical and hematological analyses were used to confirm the volunteers' good health condition. Reference values were expressed in g HA/g urine creatinine, as mean ± standard deviation (x ± SD), median, 95% confidence interval (95%CI), 95th percentile, and upper reference value (URV, mean +2 SD). RESULTS: Reference values of hippuric acid in urine were: mean ± standard deviation =0.18±0.10; median =0.15; 95% confidence interval =0.16±0.20; 95th percentile = 0.36 and upper reference value (URV, mean +2 SD) =0.38. Statistically significant differences in urinary HA (Wilcoxon - Mann/Whitney, p<0.05) were observed for different genders and age groups. Alcohol ingestion and smoking habit did not significantly affect the results. CONCLUSIONS: The reference values of hippuric acid in urine can be used in biomonitoring programs of workers occupationally exposed to toluene, especially in the southern region of the state of Minas Gerais. Age and gender may affect the HA reference values.
Resumo:
OBJECTIVE: To evaluate the discriminative and diagnostic values of neuropsychological tests for identifying schizophrenia patients. METHODS: A cross-sectional study with 36 male schizophrenia outpatients and 72 healthy matched volunteers was carried out. Participants underwent the following neuropsychological tests: Wisconsin Card Sorting test, Verbal Fluency, Stroop test, Mini Mental State Examination, and Spatial Recognition Span. Sensitivity and specificity estimated the diagnostic value of tests with cutoffs obtained using Receiver Operating Characteristic curves. The latent class model (diagnosis of schizophrenia) was used as gold standard. RESULTS: Although patients presented lower scores in most tests, the highest canonical function for the discriminant analysis was 0.57 (Verbal Fluency M). The best sensitivity and specificity were obtained in the Verbal Fluency M test (75 and 65, respectively). CONCLUSIONS: The neuropsychological tests showed moderate diagnostic value for the identification of schizophrenia patients. These findings suggested that the cognitive impairment measured by these tests might not be homogeneous among schizophrenia patients.
Resumo:
We investigate whether the liquid-vapour phase transition of strongly dipolar fluids can be understood using a model of patchy colloids. These consist of hard spherical particles with three short-ranged attractive sites (patches) on their surfaces. Two of the patches are of type A and one is of type B. Patches A on a particle may bond either to a patch A or to a patch B on another particle. Formation of an AA (AB) bond lowers the energy by epsilon AA (epsilon AB). In the limit [image omitted], this patchy model exhibits condensation driven by AB-bonds (Y-junctions). Y-junctions are also present in low-density, strongly dipolar fluids, and have been conjectured to play a key role in determining their critical behaviour. We map the dipolar Yukawa hard-sphere (DYHS) fluid onto this 2A + 1B patchy model by requiring that the latter reproduce the correct DYHS critical point as a function of the isotropic interaction strength epsilon Y. This is achieved for sensible values of epsilon AB and the bond volumes. Results for the internal energy and the particle coordination number are in qualitative agreement with simulations of DYHSs. Finally, by taking the limit [image omitted], we arrive at a new estimate for the critical point of the dipolar hard-sphere fluid, which agrees with extrapolations from simulation.
Resumo:
A validação metodológica permite evidenciar se os resultados obtidos por um método são confiáveis, tornando-se um elemento essencial na qualidade. Neste estudo, cujo objectivo é validar a metodologia enzimática para determinação de oxalato na urina, incluíram-se 30 amostras de urina de 24horas, pré-tratadas e estudadas em dois auto-analisadores. Os valores dos limites de detecção e quantificação foram 0,98 e 0,79 mg/L, respectivamente. Para a exactidão obteve-se p=0,713. Na precisão intermédia entre corridas não existem diferenças estatisticamente significativas, em oposição às repetições. Para a linearidade obteve-se r=1 e a sensibilidade foi 0,6%. Conclui-se que o método se mostrou exacto e linear.
Resumo:
Na indústria farmacêutica, a limpeza dos equipamentos e superfícies é muito importante no processo de fabrico/embalagem dos produtos farmacêuticos. Possíveis resíduos contaminantes devem ser removidos dos equipamentos e das superfícies envolvidas no processo. De acordo com as Boas Práticas de Fabrico (GMP), os procedimentos de limpeza e os métodos analíticos usados para determinar as quantidades de resíduos devem ser validados. O método analítico combinado com o método de amostragem utilizado na colheita de amostras deve ser sujeito a um ensaio de “recovery”. Neste trabalho apresenta-se uma estratégia inovadora para a validação de limpeza de formas farmacêuticas semi-sólidas. Propõe-se o uso de um método de amostragem que consiste na colheita direta de amostra após o seu fabrico, sendo a análise de resíduos feita directamente nesta amostra. Os produtos escolhidos para a avaliação da estratégia foram dois medicamentos dermatológicos, apresentados na forma de pomada e produzidos numa unidade de fabrico de vários produtos, pela Schering Plough Farma/ Merck Sharp & Dohme (Cacém, Portugal). Como métodos analíticos para a quantificação dos resíduos, utilizaram-se métodos validados por via espectrofotométrica (HPLC), usados na análise do produto acabado. A validação de limpeza foi avaliada através da análise de uma quantidade conhecida de pomada (produto B (*)), usando o método de análise da pomada fabricada anteriormente (produto A (*)), de modo a verificar-se a existência ou não de agente de limpeza e substâncias ativas deixadas após a limpeza do produto A, e vice-versa. As concentrações residuais das substâncias ativas e do agente de limpeza encontradas após a limpeza foram nulas, ou seja, inferiores ao limite de deteção (LOD), sendo que o critério de aceitação da limpeza utilizado foi de 6,4 x 10-4 mg/g para a substância ativa 1 (*); 1,0 x 10-2 mg/g para a substância ativa 2 (*); 1,0 x 10-3 mg/g para a substância ativa 3 (*) e de 10 ppm para o agente de limpeza. No ensaio de “recovery”, obtiveram-se resultados acima de 70% para todas as substâncias ativas e para o agente de limpeza nas duas pomadas. Antes de se proceder a este ensaio de “recovery”, houve a necessidade de ajustar as condições cromatográficas dos métodos analíticos de ambos os produtos e do agente de limpeza, por forma a obter-se valores da conformidade do sistema (fator de tailling e de resolução) de acordo com as especificações. A precisão dos resultados, reportada como desvio padrão relativo (RSD), deu abaixo de 2,0%, excepto nos ensaios que envolvem a substância ativa 3, cuja especificação é inferior a 10,0%. Os resultados obtidos demonstraram que os procedimentos de limpeza usados na unidade de fabrico em causa são eficazes, eliminando assim a existência de contaminação cruzada.
Resumo:
Mestrado em Radiações Aplicadas às Tecnologias da Saúde - Área de especialização: Imagem Digital por Radiação X.