978 resultados para Customer Relation Method (CRM)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The Azores archipelago is a zone with a vast cultural heritage, presenting a building stock mainly constructed in traditional stone masonry. It is known that this type of construction exhibits poor behaviour under seismic excitations; however it is extensively used in seismic prone areas, such as this case. The 9th of July of 1998 earthquake was the last seismic event in the islands, leaving many traditional stone constructions severely damaged or totally destroyed. This scenario led to an effort by the local government of improving the seismic resistance of these constructions, with the application of several reinforcement techniques. This work aims to study some of the most used reinforcement schemes after the 1998 earthquake, and to assess their effectiveness in the mitigation of the construction’s seismic vulnerability. A brief evaluation of the cost versus benefit of these retrofitting techniques is also made, seeking to identify those that are most suitable for each building typology. Thus, it was sought to analyze the case of real structures with different geometrical and physical characteristics, by establishing a comparison between the seismic performance of reinforced and non-reinforced structures. The first section contains the analysis of a total of six reinforcement scenarios for each building chosen. Using the recorded 1998 earthquake accelerograms, a linear time-history analysis was performed for each reinforcement scenario. A comparison was then established between the maximum displacements, inter-storey drift and maximum stress obtained, in order to evaluate the global seismic response of each reinforced structure. In the second part of the work, the examination of the performance obtained in the previous section, in relation to the cost of implementing each reinforcement technique, allowed to draw conclusions concerning the viability of implementing each reinforcement method, based on the book value of the buildings in study.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The present study intended to analyze the seroprevalence of Helicobacter pylori, IgG, and its relation to dyspepsia in a population from the western Amazon region. During the "Projeto Bandeira Científica", a University of São Paulo Medical School program, in Monte Negro's rural areas, state of Rondônia, 266 blood samples were collected from volunteers. The material was tested for IgG antibodies anti-Helicobacter pylori by ELISA method and the participants were also interviewed on dyspepsia, hygiene and social aspects. Participants aged between five and 81 years old (34 years on average), 149 (56%) were female and 117 (44%) male. We found 210 (78.9%) positive, 50 (18.8%) negative and six (2.3%) undetermined samples. Dyspeptic complaints were found in 226 cases (85.2%). There was no statistical association between dyspepsia and positive serology for H. pylori. We concluded that the seroprevalence in all age categories is similar to results found in other studies conducted in developing countries, including those from Brazil. On the other hand, the seroprevalence found in Monte Negro was higher than that reported in developed countries. As expected, there was a progressive increase in the positivity for H. pylori in older age groups.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduction. Peritubular capillary complement 4d staining is one of the criteria for the diagnosis of antibody-mediated rejection, and research into this is essential to kidney allograft evaluation. The immunofluorescence technique applied to frozen sections is the present gold-standard method for complement 4d staining and is used routinely in our laboratory. The immunohistochemistry technique applied to paraffin-embedded tissue may be used when no frozen tissue is available. Material and Methods. The aim of this study is to evaluate the sensitivity and specificity of immunohistochemistry compared with immunofluorescence. We describe the advantages and disadvantages of the immunohistochemistry vs. the immunofluorescence technique. For this purpose complement 4d staining was performed retrospectively by the two methods in indication biopsies (n=143) and graded using the Banff 07 classification. Results. There was total classification agreement between methods in 87.4% (125/143) of cases. However, immunohistochemistry staining caused more difficulties in interpretation, due to nonspecific staining in tubular cells and surrounding interstitium. All cases negative by immunofluorescence were also negative by immunohistochemistry. The biopsies were classified as positive in 44.7% (64/143) of cases performed by immunofluorescence vs. 36.4% (52/143) performed by immunohistochemistry. Fewer biopsies were classified as positive diffuse in the immunohistochemistry group(25.1% vs. 31.4%) and more as positive focal (13.2% vs. 11.1%). More cases were classified as negative by immunohistochemistry (63.6% vs. 55.2%). Study by ROC curve showed immunohistochemistry has a specificity of 100% and a sensitivity of 81.2% in relation to immunofluorescence (AUC: 0.906; 95% confidence interval: 0.846-0.949; p=0.0001). Conclusions. The immunohistochemistry method presents an excellent specificity but lower sensitivity to C4d detection in allograft dysfunction. The evaluation is more difficult, requiring a more experienced observer than the immunofluorescence method. Based on these results, we conclude that the immunohistochemistry technique can safely be used when immunofluorescence is not available.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The prevalence andmorbidity associated with osteoporosis and fractures in patients with spina bifida (SB) highlight the importance of osteoporosis prevention and treatment in early childhood; however, the issue has received little attention. The method for the selection of appropriate patients for drug treatment has not been clarified. Objective: To review the literature concerning fracture risks and low bone density in paediatric patients with SB. We looked for studies describing state-of-the-art treatments and for prevention of secondary osteoporosis. Methods: Articles were identified through a search in the electronic database (PUBMED) supplemented with reviews of the reference lists of selected papers. The main outcome measures were incidence of fractures and risk factors for fracture, an association between bone mineral density (BMD) and occurrence of fracture, risk factors of low BMD, and effects of pharmacological and non-pharmacological treatments on BMD and on the incidence of fractures. We considered as a secondary outcome the occurrence of fractures in relation to the mechanism of injury. Results: Results indicated that patients with SB are at increased risk for fractures and low BMD. Risk factors that may predispose patients to fractures include higher levels of neurological involvement, non-ambulatory status, physical inactivity, hypercalciuria, higher body fat levels, contractures, and a previous spontaneous fracture. Limitations were observed in the number and quality of studies concerning osteoporosis prevention and treatment in paediatric patients with SB. The safety and efficiency of drugs to treat osteoporosis in adults have not been evaluated satisfactorily in children with SB.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A new iterative algorithm based on the inexact-restoration (IR) approach combined with the filter strategy to solve nonlinear constrained optimization problems is presented. The high level algorithm is suggested by Gonzaga et al. (SIAM J. Optim. 14:646–669, 2003) but not yet implement—the internal algorithms are not proposed. The filter, a new concept introduced by Fletcher and Leyffer (Math. Program. Ser. A 91:239–269, 2002), replaces the merit function avoiding the penalty parameter estimation and the difficulties related to the nondifferentiability. In the IR approach two independent phases are performed in each iteration, the feasibility and the optimality phases. The line search filter is combined with the first one phase to generate a “more feasible” point, and then it is used in the optimality phase to reach an “optimal” point. Numerical experiences with a collection of AMPL problems and a performance comparison with IPOPT are provided.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The research presented in this paper proposes a novel quantitative model for decomposing and assessing the Value for the Customer. The proposed approach builds on the different dimensions of the Value Network analysis proposed by Verna Allee having as background the concept of Value for the Customer proposed by Woodall. In this context, the Value for the Customer is modelled as a relationship established between the exchanged deliverables and a combination of tangible and intangible assets projected into their endogenous or exogenous dimensions. The Value Network Analysis of the deliverables exchange enables an in-depth understanding of this frontier and the implicit modelling of co-creation scenarios. The proposed Conceptual Model for Decomposing Value for the Customer combines several concepts: from the marketing area we have the concept of Value for the Customer; from the area of intellectual capital the concept of Value Network Analysis; from the collaborative networks area we have the perspective of the enterprise life cycle and the endogenous and exogenous perspectives; at last, the proposed model is supported by a mathematical formal description that stems from the area of Multi-Criteria Decision Making. The whole concept is illustrated in the context of a case study of an enterprise in the footwear industry (Pontechem). The merits of this approach seem evident from the contact with Pontechem as it provides a structured approach for the enterprises to assess the adequacy of their value proposition to the client/customer needs and how these relate to their endogenous and/or exogenous tangible or intangible assets. The proposed model, as a tool, may therefore be a useful instrument in supporting the commercialisation of new products and/or services.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Projeto de Mestrado apresentado ao Instituto Superior de Contabilidade e Administração do Porto, para obtenção do Grau de Mestre em Empreendedorismo e Internacionalização, sob orientação da Professora Doutora Ana Azevedo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The method used by YAGYU et al. for the subtype-specific polymerase chain reaction (PCR) amplification of the gp41 transmembrane region of the human immunodeficiency virus type-1 (HIV-1) env gene, was tested. HIV-1 proviral DNA from 100 infected individuals in Itajaí, South Brazil was used to analyze this method. Seventy individuals were determined according to this method as having PCR products at the expected size for subtypes B, C, D and F. Of these individuals, 26 (37.1%) were observed as having the expected amplification for subtype C, and 42 (60%) were observed as having the expected products for subtypes B and D. Of the subtype B and D amplicons, 16 (22.9%) were classified as subtype D, and 26 (37.1%) were classified as subtype B. Two individuals (2.9%) had amplicons that were observed after subtype F-specific amplification was performed. Sequencing and comparing the patient sequences to reference sequences confirmed the classification of sequences of subtypes C and B. However, sequences that were falsely determined as being D and F in the PCR assay were determined as being subtypes C and B, respectively, by sequence analysis. For those individuals from whom no amplified products were obtained, a low viral load that was indicated in their patient history may explain the difficulty in subtyping by PCR methods. This issue was demonstrated by the results of ANOVA when testing the effect of viral load on the success of PCR amplification. The alignment of the obtained sequences with HIV-1 reference sequences demonstrated that there is high intra-subtype diversity. This indicates that the subtype-specific primer binding sites were not conserved or representative of the subtypes that are observed in the Brazilian populations, and that they did not allow the correct classification of HIV-1 subtypes. Therefore, the proposed method by YAGYU et al. is not applicable for the classification of Brazilian HIV-1 subtypes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação foi realizada no âmbito do Mestrado de Engenharia e Gestão Industrial da Escola Superior de Estudos Industriais e de Gestão, de Vila do Conde. O projeto desenvolvido tem como tema principal a Otimização de processos de Logística in-house baseado num projeto, em contexto empresarial da empresa cliente, Continental Mabor S.A., da Rangel Distribuição e Logística, S.A. Este projeto tem como objetivo a “aglomeração” de dois armazéns do cliente, devido à necessidade de ocupação do armazém de produto acabado interno, para aumento da área de produção. Inicialmente foi feita uma revisão de literatura sobre os temas mais relevantes de suporte para o projeto, nomeadamente na otimização e melhoria contínua. Seguidamente é apresentado o Grupo Rangel, bem como a Rangel Distribuição e Logística, S.A., onde se enquadra o projeto e para se perceber o enquadramento e objetivo. A metodologia usada, caso de estudo, permitiu a aplicação de conceitos e ferramentas usados na literatura neste contexto, como ferramentas de otimização e melhoria continua como as melhores práticas de Kaizen-Lean. Na fase de diagnóstico do atual sistema, foi realizado um mapeamento de fluxo de processos e uma descrição detalhada do layout dos dois armazéns: Armazém de Produto Acabado (APA) e Armazém de Produto Acabado Externo (APAE), bem como todos os recursos, quer técnicos quer humanos necessários. Verificamos ao longo deste projeto várias limitações, inclusive limitações impostas pelo cliente, tal como não aprovar um estudo para um novo layout do armazém. Foi aprovado apenas a replicação do já existente. Com isto, depararam-se constrangimentos na gestão deste projeto. Os custos aumentaram significativamente, embora estes não sejam apresentados por questões de confidencialidade, principalmente com a necessidade de aquisição de novos equipamentos retráteis, e mais baterias para os mesmos, devido às grandes distâncias que irão ser percorridas. Finalmente foi projetado o sistema futuro, de acordo com as necessidades reais do cliente tendo em consideração a otimização de recursos e uma gestão magra (Lean Management). Foi desenvolvida a implementação da metodologia “Kaizen diário”, a dar início em 2016 juntamente com o novo projeto APAE. Com esta projeção foram identificados problemas e implicações no projeto, bem como possíveis melhorias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Genética Molecular e Biomedicina

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O ensaio de dureza, e mais concretamente o ensaio de micro dureza Vickers, é no universo dos ensaios mecânicos um dos mais utilizados quer seja na indústria, no ensino ou na investigação e desenvolvimento de produto no âmbito das ciências dos materiais. Na grande maioria dos casos, a utilização deste ensaio tem como principal aplicação a caracterização ou controlo da qualidade de fabrico de materiais metálicos. Sendo um ensaio de relativa simplicidade de execução, rapidez e com resultados comparáveis e relacionáveis a outras grandezas físicas das propriedades dos materiais. Contudo, e tratando-se de um método de ensaio cuja intervenção humana é importante, na medição da indentação gerada por penetração mecânica através de um sistema ótico, não deixa de exibir algumas debilidades que daí advêm, como sendo o treino dos técnicos e respetivas acuidades visuais, fenómenos de fadiga visual que afetam os resultados ao longo de um turno de trabalho; ora estes fenómenos afetam a repetibilidade e reprodutibilidade dos resultados obtidos no ensaio. O CINFU possui um micro durómetro Vickers, cuja realização dos ensaios depende de um técnico treinado para a execução do mesmo, apresentando todas as debilidades já mencionadas e que o tornou elegível para o estudo e aplicação de uma solução alternativa. Assim, esta dissertação apresenta o desenvolvimento de uma solução alternativa ao método ótico convencional na medição de micro dureza Vickers. Utilizando programação em LabVIEW da National Instruments, juntamente com as ferramentas de visão computacional (NI Vision), o programa começa por solicitar ao técnico a seleção da câmara para aquisição da imagem digital acoplada ao micro durómetro, seleção do método de ensaio (Força de ensaio); posteriormente o programa efetua o tratamento da imagem (aplicação de filtros para eliminação do ruído de fundo da imagem original), segue-se, por indicação do operador, a zona de interesse (ROI) e por sua vez são identificadas automaticamente os vértices da calote e respetivas distâncias das diagonais geradas concluindo, após aceitação das mesmas, com o respetivo cálculo de micro dureza resultante. Para validação dos resultados foram utilizados blocos-padrão de dureza certificada (CRM), cujos resultados foram satisfatórios, tendo-se obtido um elevado nível de exatidão nas medições efetuadas. Por fim, desenvolveu-se uma folha de cálculo em Excel com a determinação da incerteza associada às medições de micro dureza Vickers. Foram então comparados os resultados nas duas metodologias possíveis, pelo método ótico convencional e pela utilização das ferramentas de visão computacional, tendo-se obtido bons resultados com a solução proposta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Enterococci are increasingly responsible for nosocomial infections worldwide. This study was undertaken to compare the identification and susceptibility profile using an automated MicrosScan system, PCR-based assay and disk diffusion assay of Enterococcus spp. We evaluated 30 clinical isolates of Enterococcus spp. Isolates were identified by MicrosScan system and PCR-based assay. The detection of antibiotic resistance genes (vancomycin, gentamicin, tetracycline and erythromycin) was also determined by PCR. Antimicrobial susceptibilities to vancomycin (30 µg), gentamicin (120 µg), tetracycline (30 µg) and erythromycin (15 µg) were tested by the automated system and disk diffusion method, and were interpreted according to the criteria recommended in CLSI guidelines. Concerning Enterococcus identification the general agreement between data obtained by the PCR method and by the automatic system was 90.0% (27/30). For all isolates of E. faecium and E. faecalis we observed 100% agreement. Resistance frequencies were higher in E. faecium than E. faecalis. The resistance rates obtained were higher for erythromycin (86.7%), vancomycin (80.0%), tetracycline (43.35) and gentamicin (33.3%). The correlation between disk diffusion and automation revealed an agreement for the majority of the antibiotics with category agreement rates of > 80%. The PCR-based assay, the van(A) gene was detected in 100% of vancomycin resistant enterococci. This assay is simple to conduct and reliable in the identification of clinically relevant enterococci. The data obtained reinforced the need for an improvement of the automated system to identify some enterococci.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente necessidade de reduzir a dependência energética e a emissão de gases de efeito de estufa levou à adoção de uma série de políticas a nível europeu com vista a aumentar a eficiência energética e nível de controlo de equipamentos, reduzir o consumo e aumentar a percentagem de energia produzida a partir de fontes renováveis. Estas medidas levaram ao desenvolvimento de duas situações críticas para o setor elétrico: a substituição das cargas lineares tradicionais, pouco eficientes, por cargas não-lineares mais eficientes e o aparecimento da produção distribuída de energia a partir de fontes renováveis. Embora apresentem vantagens bem documentadas, ambas as situações podem afetar negativamente a qualidade de energia elétrica na rede de distribuição, principalmente na rede de baixa tensão onde é feita a ligação com a maior parte dos clientes e onde se encontram as cargas não-lineares e a ligação às fontes de energia descentralizadas. Isto significa que a monitorização da qualidade de energia tem, atualmente, uma importância acrescida devido aos custos relacionados com perdas inerentes à falta de qualidade de energia elétrica na rede e à necessidade de verificar que determinados parâmetros relacionados com a qualidade de energia elétrica se encontram dentro dos limites previstos nas normas e nos contratos com clientes de forma a evitar disputas ou reclamações. Neste sentido, a rede de distribuição tem vindo a sofrer alterações a nível das subestações e dos postos de transformação que visam aumentar a visibilidade da qualidade de energia na rede em tempo real. No entanto, estas medidas só permitem monitorizar a qualidade de energia até aos postos de transformação de média para baixa tensão, não revelando o estado real da qualidade de energia nos pontos de entrega ao cliente. A monitorização nestes pontos é feita periodicamente e não em tempo real, ficando aquém do necessário para assegurar a deteção correta de problemas de qualidade de energia no lado do consumidor. De facto, a metodologia de monitorização utilizada atualmente envolve o envio de técnicos ao local onde surgiu uma reclamação ou a um ponto de medição previsto para instalar um analisador de energia que permanece na instalação durante um determinado período de tempo. Este tipo de monitorização à posteriori impossibilita desde logo a deteção do problema de qualidade de energia que levou à reclamação, caso não se trate de um problema contínuo. Na melhor situação, o aparelho poderá detetar uma réplica do evento, mas a larga percentagem anomalias ficam fora deste processo por serem extemporâneas. De facto, para detetar o evento que deu origem ao problema é necessário monitorizar permanentemente a qualidade de energia. No entanto este método de monitorização implica a instalação permanente de equipamentos e não é viável do ponto de vista das empresas de distribuição de energia já que os equipamentos têm custos demasiado elevados e implicam a necessidade de espaços maiores nos pontos de entrega para conter os equipamentos e o contador elétrico. Uma alternativa possível que pode tornar viável a monitorização permanente da qualidade de energia consiste na introdução de uma funcionalidade de monitorização nos contadores de energia de determinados pontos da rede de distribuição. Os contadores são obrigatórios em todas as instalações ligadas à rede, para efeitos de faturação. Tradicionalmente estes contadores são eletromecânicos e recentemente começaram a ser substituídos por contadores inteligentes (smart meters), de natureza eletrónica, que para além de fazer a contagem de energia permitem a recolha de informação sobre outros parâmetros e aplicação de uma serie de funcionalidades pelo operador de rede de distribuição devido às suas capacidades de comunicação. A reutilização deste equipamento com finalidade de analisar a qualidade da energia junto dos pontos de entrega surge assim como uma forma privilegiada dado que se trata essencialmente de explorar algumas das suas características adicionais. Este trabalho tem como objetivo analisar a possibilidade descrita de monitorizar a qualidade de energia elétrica de forma permanente no ponto de entrega ao cliente através da utilização do contador elétrico do mesmo e elaborar um conjunto de requisitos para o contador tendo em conta a normalização aplicável, as características dos equipamentos utilizados atualmente pelo operador de rede e as necessidades do sistema elétrico relativamente à monitorização de qualidade de energia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos anos tem-se assistido à introdução de novos dispositivos de medição da poluição do ar baseados na utilização de sensores de baixo custo. A utilização menos complexa destes sistemas, possibilita a obtenção de dados com elevada resolução temporal e espacial, abrindo novas oportunidades para diferentes metodologias de estudos de monitorização da poluição do ar. Apesar de apresentarem capacidades analíticas distantes dos métodos de referência, a utilização destes sensores tem sido sugerida e incentivada pela União Europeia no âmbito das medições indicativas previstas na Diretiva 2008/50/CE, com uma incerteza expandida máxima de 25%. O trabalho desenvolvido no âmbito da disciplina de Projeto consistiu na escolha, caracterização e utilização em medições reais de um sensor de qualidade do ar, integrado num equipamento protótipo desenvolvido com esse fim, visando obtenção uma estimativa da incerteza de medição associada à utilização deste dispositivo através da aplicação da metodologia de demonstração de equivalência de métodos de medição de qualidade do ar definida pela União Europeia. A pesquisa bibliográfica realizada permitiu constatar que o monóxido de carbono é neste momento o parâmetro de qualidade do ar que permite ser medido de forma mais exata através da utilização de sensores, nomeadamente o sensor eletroquímico da marca Alphasense, modelo COB4, amplamente utilizado em projetos de desenvolvimento neste cotexto de monitorização ambiental. O sensor foi integrado num sistema de medição com o objetivo de poder ser utlizado em condições de autonomia de fornecimento de energia elétrica, aquisição interna dos dados, tendo em consideração ser o mais pequeno possível e de baixo custo. Foi utlizado um sistema baseado na placa Arduino Uno com gravação de dados em cartão de memória SD, baterias e painel solar, permitindo para além do registo das tensões elétricas do sensor, a obtenção dos valores de temperatura, humidade relativa e pressão atmosférica, com um custo global a rondar os 300 euros. Numa primeira fase foram executados um conjunto de testes laboratoriais que permitiram a determinação de várias características de desempenho em dois sensores iguais: tempo de resposta, a equação modelo do sensor, avaliação da repetibilidade, desvio de curto e longo termo, interferência da temperatura e histerese. Os resultados demonstraram um comportamento dos sensores muito linear, com um tempo de resposta inferior a um minuto e com uma equação modelo do sensor dependente da variação da temperatura. A estimativa da incerteza expandida laboratorial ficou, para ambos os sensores, abaixo dos 10%. Após a realização de duas campanhas reais de medição de CO em que os valores foram muito baixos, foi realizada uma campanha de quinze dias num parque de estacionamento subterrâneo que permitiu a obtenção de concentrações suficientemente elevadas e a comparação dos resultados dos sensores com o método de referência em toda a gama de medição (0 a 12 mol.mol-1). Os valores de concentração obtidos pelos dois sensores demonstraram uma excelente correlação com o método de referência (r2≥0,998), obtendo-se resultados para a estimativa da incerteza expandida de campo inferiores aos obtidos para a incerteza laboratorial, cumprindo o objetivo de qualidade de dados definido para as medições indicativas de incerteza expandida máxima de 25%. Os resultados observados durante o trabalho realizado permitiram confirmar o bom desempenho que este tipo de sensor pode ter no âmbito de medições de poluição do ar com um caracter mais indicativo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.