998 resultados para Método do custo
Resumo:
No actual ambiente competitivo, o baixo custo, a alta qualidade e um grau crescente de personalização são exigências para a sobrevivência das empresas que têm influenciado as acções dos profissionais de manutenção com vista ao aperfeiçoamento das políticas de manutenção. Como resultado, surgiu na área de manutenção industrial uma grande quantidade de métodos, softwares, modelos e ferramentas de gestão, onde se destaca o RCM (Reliability Centered Maintenance ou Manutenção Centrada na Fiabilidade) de origem Norte Americana na década de 60. Inicialmente começou-se a utilizar este método na indústria de aviação passando posteriormente a ser utilizada também pelo Exército dos E.U.A. e a partir da década de 80 por outras indústrias comerciais. Após a explicação da metodologia RCM e tendo como base o modelo da moto Softail, começou-se por definir o sistema através da preparação para a análise, selecção do equipamento a ser analisado e identificação das funções. Após definição do sistema passa-se à sua análise. Neste caso optou-se pela análise FMEA onde se identificam as falhas funcionais, os efeitos e causas dessas mesmas falhas, conhecendo-se o histórico de avarias do modelo Softail durante o período de garantia, desde 1999 até ao presente ano. Do histórico de avarias durante o período de garantia, e após estudo do mesmo, conclui-se que 28,35% das avarias são cosméticas, relativas a problemas de cromados (danos ou qualidade dos cromados) avarias essas que não influenciam o desempenho do motociclo; 9,58% de problemas relativos a baterias, problemas esses que poderão influenciar o normal funcionamento do motociclo e que se deverá ter mais atenção; 7,66% dos motociclos tiveram problemas de entrada de água para o interior do velocímetro, uma vez mais este problema não interfere com o bom desempenho do motociclo; 4,6% relativos a danos na pintura, uma vez mais problema cosmético que não interfere com o bom desempenho do motociclo; segue-se 4,21% devido a barulhos na frente do motociclo e que deverá requerer alguma atenção; 4,21% de mau funcionamento da instrumentação eléctrica, onde se deverá ter também atenção. No estudo da FMEA conclui-se que o principal efeito/consequência gerado pela falha da bateria (falha com maior frequência) é o não funcionamento do motor por falta de alimentação do sistema de gestão electrónica do motociclo e consequente imobilização do mesmo. Com base na FMEA realizada foram salientados os aspectos, em termos de modos de falha, que são mais importantes, com base nas reclamações em prazo de garantia, tais como questões estéticas dos cromados e pinturas e problemas relacionados com o funcionamento da bateria, entre outros. Na FMEA podem ser vistos em termos criticidade todos os modos de falha, através do RPN (Risk Priority Number), ou em português Número de Prioridade de Risco, mostrando assim onde a marca pode aplicar prioridades em termos de acções de projecto ou manutenção. Com estas alterações pretende-se aumentar a fiabilidade do modelo Softail, podendo no futuro alargar este novo plano de manutenção às restantes famílias da gama Harley-Davidson.
Resumo:
Na sequência das preocupações de ausência dos custos externos na análise de projectos rodoviários, foram realizados diversos estudos (EUNET/SASI, FISCUS, HEATCO, PETS, UNITE, GRACE, IMPACT) com vista a identificar e quantificar os impactes reais das actividades de transporte rodoviário. Nesses projectos foram apresentadas diversas metodologias para quantificação dos custos e também benefícios associados aos sistemas de transporte, nomeadamente das infra-estruturas rodoviárias. Para o efeito foram analisadas várias categorias de custo (custos da infra-estrutura, custos do congestionamento, custos da operação dos veículos, custos dos acidentes, custos do ruído, custos da poluição atmosférica, custos do aquecimento global). Nesta dissertação utilizou-se cinco modelos de determinação de custos de infra-estruturas rodoviárias que posteriormente foram calibrados ao caso português para aplicação em estudo de casos em Portugal de duas formas, avaliação de projectos de infra-estruturas rodoviárias e identificação e fixação de preços, nomeadamente associados às portagens. A avaliação de projectos de infra-estruturas rodoviárias foi realizada através da utilização de indicadores de custos totais e médios, utilizando para o efeito dois modelos: o HDM-4 – Highway Development and Management (PIARC, 2001) e o COBA – Cost Benefit Analysis (TRL, 2004) que utilizam custos totais e um modelo proposto pelo autor com base numa síntese e adaptação de submodelos desenvolvidos nos projectos europeus já referidos que utiliza custos médios. A análise associada à identificação dos custos marginais relevantes para a fixação de preços foi realizada através do modelo desenvolvido no projecto europeu, GRACE – Generalisation of Research on Accounts and Cost Estimation (ITS et al., 2008), e de um modelo proposto pelo autor. Após a adaptação e/ou construção dos modelos, estes foram aplicados ao estudo de três situações específicas em infra-estruturas rodoviárias nacionais. Referem-se intervenções na estrada nacional EN125 que liga Vila do Bispo a Vila Real de Santo António (no Algarve), na auto-estrada A7 que liga Póvoa de Varzim a Vila Pouca de Aguiar (Norte de Portugal) e na auto-estrada A9 que liga o Estádio Nacional em Oeiras a Alverca (região de Lisboa).
Resumo:
No campo da investigação das células fotovoltaicas orgânicas, a obtenção da camada activa com morfologia “ideal” através de técnicas baratas é ainda um marco não atingido. Este trabalho visa ultrapassar as baixas eficiências que são características destas células, através do desenvolvimento de um método rápido e de baixo custo para preparar camadas activas com morfologia próxima da “ideal”. Tal método permitiu obter filmes estruturados de polímeros conjugados reticulados que constituem um dos componentes da camada activa. O método é baseado no controlo da separação de fases que ocorre durante a deposição de misturas em solução, contendo um polímero conjugado reticulável, um polímero isolador “inerte” e um agente iniciador da reacção de reticulação, por spin coating (técnica rápida e de baixo custo), sobre um substrato que poderá servir de um dos eléctrodos na célula. A posterior irradiação do filme com luz Ultravioleta e o seu aquecimento conduzem à formação de uma “rede” reticulada e insolúvel do polímero conjugado que permite remover o polímero inerte e o agente iniciador por dissolução. Sendo o filme resultante insolúvel, o outro(s) componente(s) da camada activa da célula podem ser também depositados sobre ele a partir de soluções. Foram usados três polímeros conjugados reticuláveis dreivados do poli(dioctil-fluoreno) e um polímero “inerte”, o poliestireno, com diversos pesos moleculares. Demonstrou-se que a variação de condições durante a deposição das misturas e das características das mesmas permite obter filmes com diferentes tipos de morfologia - colunar, bicontínua e porosa - com diferentes dimensões dos “motivos” de polímero. Em particular, obtiveram-se filmes com morfologia colunar, com diâmetro médio de coluna da ordem de 150-200 nm e com morfologia bicontínua com “largura” média de grão de cerca de 200 nm. Demonstrou-se que a utilização dos filmes estruturados é mais vantajosa que a de filmes não estruturados (“planos”), tendo-se obtido valores de 90 a 95% de extinção de fotoluminescência para filmes colunares de um dos polímeros, em que o aceitador de electrões foi depositado em solução. Estes valores são indicativos de um processo de dissociação dos excitões gerados no polímero conjugado muito eficiente, o que permite antever que as camadas activas preparadas possam ser aplicadas em células fotovoltaicas com morfologia optimizada.
Resumo:
A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.
Resumo:
Objetivou-se detectar e analisar as implicações em custos e recursos humanos em odontologia de uma hipotética aplicação dos conceitos escandinavos de atenção odontológica no Brasil. Duas sociedades foram escolhidas para serem estudadas: Suécia, país da Escandinávia, e Santa Catarina, Estado da região Sul do Brasil. A análise teórica dessas implicações foi realizada a partir da determinação das necessidades de recursos humanos em odontologia, considerando-se os altos índices de doenças bucais no Estado brasileiro. Utilizou-se o programa de software "Health Through Oral Health" da Organização Mundial da Saúde-Federação Dentária Internacional (1989). Os resultados mostraram alto custo financeiro e a necessidade de se aumentar em até 85% o recurso humano disponível para atuar em saúde bucal no Estado de Santa Catarina. Concluiu-se que os princípios de alta provisão de recursos humanos e financeiros, característicos do modelo escandinavo, não serviriam para serem adotados por Santa Catarina e, extensivamente, pelo Brasil.
Resumo:
O desempenho do ensaio por enzimas imuno-adsorvidas (ELISA), mediante o emprego de conjuntos de reativos produzidos em escala comercial, para determinação de aflatoxina, foi avaliado em condições experimentais, através de análises repetidas, em amostras de leite em pó reconstituído contaminadas com concentrações conhecidas da fração M1 da toxina. Para os níveis de 0,10; 0,20; 0,50; e, 1,00 ng/ml, os percentuais de recuperação foram: 83,0%; 87,5%; 103,0%; e, 111,8%, respectivamente. O desvio-padrão relativo, para as referidas concentrações, foi, respectivamente, 65,5%; 31,8%; 10,9% e 13,6% (n=10, para cada nível de contaminação). Os resultados obtidos demonstram que o método é apropriado para pesquisas e levantamentos sobre a ocorrência de aflatoxina M1 em leite, sobretudo nas faixas de concentração entre 0,20 - 1,00 ng/ml.
Resumo:
O objectivo do presente trabalho foi desenvolver, implementar e validar métodos de determinação de teor de cálcio (Ca), magnésio (Mg), sódio (Na), potássio (K) e fósforo (P) em biodiesel, por ICP-OES. Este método permitiu efectuar o controlo de qualidade do biodiesel, com a vantagem de proporcionar uma análise multi-elementar, reflectindo-se numa diminuição do tempo de análise. Uma vez que o biodiesel é uma das principais fontes de energia renovável e alternativa ao diesel convencional, este tipo de análises revela-se extremamente útil para a sua caracterização. De acordo com a análise quantitativa e qualitativa e após a validação dos respectivos ensaios, apresentam-se, na Tabela 1 as condições optimizadas para cada elemento em estudo. As condições de trabalho do ICP-OES foram escolhidas tendo em conta as características do elemento em estudo, o tipo de equipamento utilizado para a sua análise, e de modo a obter a melhor razão sinal/intensidade de fundo. Para a validação dos ensaios foram efectuados ensaios de recuperação, determinados limites de detecção e quantificação, ensaios de repetibilidade e reprodutibilidade, e verificação das curvas de calibração. Na tabela 2 apresentam-se os comprimentos de onda escolhidos (livres de interferências) e respectivos limites de detecção e quantificação dos elementos analisados por ICP-OES, na posição radial e radial atenuado.
Resumo:
OBJETIVO: Apresentar uma aplicação da regressão logística para estimar razões de prevalência ou risco relativo, e o uso do método delta para a estimativa de intervalos de confiança. MÉTODOS: Utilizou-se o método delta, visto que esta técnica é adequada para estimar variâncias de funções não lineares de variáveis aleatórias, do tipo razão de proporções. O método baseia-se na expansão da função em série de Taylor, provendo uma aproximação para o cálculo das variâncias. Para estimar as razões de proporções e as respectivas variâncias, que permitem a estimação dos intervalos de confiança, desenvolveu-se programa utilizando-se o módulo matricial do SAS. A aplicação prática do modelo proposto é feita utilizando-se dados de um estudo transversal com uma amostra de 611 mulheres, para testar a hipótese de que a falta de compartilhamento do trabalho doméstico associa-se com altos escores de sintomas psicológicos medidos através de um questionário validado. As razões de prevalência calculadas através da regressão logística, e os intervalos de confiança estimados pelo método delta foram comparadas com os resultados obtidos pela técnica de Mantel-Haenszel. RESULTADOS: As estimativas pontuais das razões de prevalência brutas, cruas ou ajustadas, obtidas através da regressão logística, foram semelhantes às encontradas na análise tabular. Também os limites dos intervalos de confianças para as razões de prevalência através do método delta foram praticamente iguais em relação aos encontrados através da técnica de Mantel-Haenszel. CONCLUSÕES: Os resultados apóiam o uso do método delta para estimar intervalos de confiança para razões de proporção. Esse método deve ser visto como uma alternativa para situações em que o efeito em estudo (variável dependente) não é raro, situação onde a "odds ratio" se afasta das medidas epidemiológicas caracterizadas como razão de proporções.
Resumo:
INTRODUÇÃO: Vários estudos epidemiológicos sobre o consumo de substâncias psicoativas têm incluído em suas análises a avaliação da influência do contexto social nos níveis de prevalência desse consumo. Analisa-se a distribuição do consumo dessas substâncias segundo as classes sociais, numa amostra de adolescentes escolares de Ribeirão Preto, SP, Brasil. MATERIAL E MÉTODO: Um questionário auto-aplicável, adaptado e submetido a um teste de confiabilidade, foi aplicado a uma amostra proporcional de 1.025 adolescentes matriculados na oitava série do primeiro grau e primeiro, segundo e terceiro anos do segundo grau, das escolas públicas e privadas da cidade. O questionário continha questões sobre o uso de dez classes de drogas. Utilizou-se a adaptação de um modelo que identifica 5 frações de classe social (burguesias empresarial, gerencial e pequena burguesia, proletariado e subproletariado), a partir de indicadores que situam os indivíduos dentro das relações sociais de produção. RESULTADOS: As três frações da burguesia foram mais representadas que as outras na população de adolescentes escolares do que na população geral. Não houve diferenças na distribuição do consumo de álcool e tabaco pelas classes sociais, embora se observe uma tendência de maior prevalência nos extremos da escala social. Já o consumo de substâncias ilícitas foi maior nas burguesias e menor no proletariado. CONCLUSÕES: Embora o consumo de substâncias lícitas não tenha diferido entre as classes sociais, o maior consumo de substâncias ilícitas pelos mais ricos provavelmente se deveu ao maior custo desses produtos do que o álcool e o tabaco.
Resumo:
INTRODUÇÃO: O uso de aspiração a vácuo (AV) no tratamento do aborto incompleto é prática bastante difundida em países desenvolvidos. Vários estudos nesses países indicam que o uso da técnica de aspiração manual a vácuo (AMV) pode conservar recursos do sistema de saúde e melhorar a qualidade do tratamento do aborto. No Brasil, o uso da AMV é procedimento de rotina nos hospitais e clínicas privados. Entretanto, na maioria dos hospitais da rede pública é utilizada somente a técnica de dilatação e curetagem (D&C). METODOLOGIA: Foram utilizados métodos de avaliação rápida para estimar a variação do custo médio do tratamento e duração da estadia hospitalar, em um grupo de 30 pacientes admitidas com aborto incompleto em hospital público de Fortaleza, CE (Brasil). Participantes foram alocadas, randomicamente, em um dos dois grupos de tratamento investigados (AMV ou D&C). RESULTADOS E CONCLUSÕES: Os resultados sugerem que o uso da AMV, em substituição a D&C, no tratamento do aborto incompleto, pode reduzir em até 41% o custo médio do tratamento e em 77% o tempo médio de hospitalização. Recomenda-se a realização de estudos confirmatórios, como também que se aprofunde os conhecimentos sobre a percepção do aborto e seu tratamento por parte do pessoal de saúde e da população feminina.
Resumo:
A presente dissertação apresenta o desenvolvimento de um medidor de componentes passivos RLC. Este medidor baseia-se num protótipo desenvolvido para possibilitar a medição da impedância de um dispositivo em teste. Tendo uma carta de aquisição de sinal como interface, o protótipo comunica com um computador que controla todo o processo de medição desde a aquisição e processamento de sinais ao cálculo e visualização dos parâmetros. A topologia de medição implementada é a da ponte auto-balanceada e no processamento recorre-se ao método da desmodulação síncrona ou coerente. A sua viabilidade é suportada por um estudo teórico prévio, pela discussão das opções tomadas no projecto e pelos resultados obtidos através do algoritmo desenvolvido utilizando o software LabVIEW de programação gráfica.
Resumo:
O cancro da mama e o cancro colorretal constituem duas das principais causas de morte a nível mundial. Entre 5 a 10% destes casos estão associados a variantes germinais/hereditárias em genes de suscetibilidade para cancro. O objetivo deste trabalho consistiu em validar a utilização da sequenciação de nova geração (NGS) para identificar variantes previamente detetadas pelo método de Sanger em diversos genes de suscetibilidade para cancro da mama e colorretal. Foram sequenciadas por NGS 64 amostras de DNA de utentes com suspeita clínica de predisposição hereditária para cancro da mama ou colorretal, utilizando o painel de sequenciação TruSight Cancer e a plataforma MiSeq (Illumina). Estas amostras tinham sido previamente sequenciadas pelo método de Sanger para os genes BRCA1, BRCA2, TP53, APC, MUTYH, MLH1, MSH2 e STK11. A análise bioinformática dos resultados foi realizada com os softwares MiSeq Reporter, VariantStudio, Isaac Enrichment (Illumina) e Integrative Genomics Viewer (Broad Institute). A NGS demonstrou elevada sensibilidade e especificidade analíticas para a deteção de variantes de sequência em 8 genes de suscetibilidade para cancro colorretal e da mama, uma vez que permitiu identificar a totalidade das 412 variantes (93 únicas, incluindo 27 variantes patogénicas) previamente detetadas pelo método de Sanger. A utilização de painéis de sequenciação de genes de predisposição para cancro por NGS vem possibilitar um diagnóstico molecular mais abrangente, rápido e custo-eficiente, relativamente às metodologias convencionais.
Resumo:
INTRODUÇÃO: A deficiência de biotinidase é um erro inato do metabolismo caracterizado principalmente por ataxia, crise convulsiva retardo mental, dermatites, alopécia e susceptibilidade a infecções. É atribuída a esta deficiência enzimática a forma tardia de deficiência múltipla das carboxilases. Com o objetivo de verificar a prevalência da deficiência de biotinidase e validar o teste de triagem neonatal considerando a relação custo/benefício, elaborou-se estudo prospectivo na população de recém-nascidos no Estado do Paraná. MATERIAL E MÉTODO: Em um período de 8 meses foram triados 125.000 recém-nascidos. A amostra sangüínea foi a mesma obtida para os testes de triagem para fenilcetonúria e hipotireoidismo congênito, submetida ao teste semiquantitativo colorimétrico para atividade de biotinidase. As amostras consideradas suspeitas foram repetidas em duplicatas do mesmo cartão de papel de filtro, e as que permaneceram alteradas solicitou-se novo cartão. O teste quantitativo colorimétrico da doença foi realizado nos casos em que a segunda amostra testada em duplicata sugeriu deficiência de biotinidase. RESULTADOS: A taxa de repetição em duplicata variou de 0,9% a 0,5% do total de exames realizados por mês. A taxa de reconvocação do segundo cartão foi de 0,17%, sendo que destes 212 casos, 30% não retornaram o segundo cartão solicitado. Foram identificados 2 casos, um de deficiência total de biotinidase e outro de deficiência parcial. A prevalência da doença na população de estudo foi de 1:62.500 nascidos-vivos. A sensibilidade do teste semiquantativo colorimétrico foi calculada em 100% e a especificidade 99,88%. CONCLUSÃO: A prevalência da doença no Estado do Paraná foi de 1:125.000 nascidos-vivos para deficiência total da enzima, levando-se em consideração que 30% de casos suspeitos que repetiram novo teste. O teste semiquantitativo colorimétrico foi considerado efetivo em identificar os casos afetados, com sensibilidade de 100% e especificidade de 99,88%. A relação custo/benefício foi satisfatória, permitindo a inclusão do teste de detecção de deficiência de biotinidase no programa de triagem neonatal do Estado do Paraná.
Resumo:
O principal objectivo desta tese é obter uma relação directa entre a composição dos gases liquefeitos de petróleo (GLP), propano, n-butano e isobutano, usados como aerossóis propulsores numa lata de poliuretano de um componente, com as propriedades das espumas produzidas por spray. As espumas obtidas, terão de ter como requisito principal, um bom desempenho a temperaturas baixas, -10ºC, sendo por isso designadas por espumas de Inverno. Uma espuma é considerada como tendo um bom desempenho se não apresentar a -10/-10ºC (temperatura lata/ spray) glass bubbles, base holes e cell collapse. As espumas deverão ainda ter densidades do spray no molde a +23/+23ºC abaixo dos 30 g/L, um rendimento superior a 30 L, boa estabilidade dimensional e um caudal de espuma a +5/+5ºC superior a 5 g/s. Os ensaios experimentais foram realizados a +23/+23ºC, +5/+5ºC e a -10/-10ºC. A cada temperatura, as espumas desenvolvidas, foram submetidas a testes que permitiram determinar a sua qualidade. Testes esses que incluem os designados por Quick Tests (QT): o spray no papel e no molde das espumas nas referidas temperaturas. As amostras do papel e no molde são especialmente analisadas, quanto, às glass bubbles, cell collapse, base holes, cell structur e, cutting shrinkage, para além de outras propriedades. Os QT também incluem a análise da densidade no molde (ODM) e o estudo do caudal de espumas. Além dos QT foram realizados os testes da estabilidade dimensional das espumas, testes físicos de compressão e adesão, testes de expansão das espumas após spray e do rendimento por lata de espuma. Em todos os ensaios foi utilizado um tubo adaptador colocado na válvula da lata como método de spray e ainda mantida constante a proporção das matérias-primas (excepto os gases, em estudo). As experiências iniciaram-se com o estudo de GLPs presentes no mercado de aerossóis. Estes resultaram que o GLP: propano/ n-butano/ isobutano: (30/ 0/ 70 w/w%), produz as melhores espumas de inverno a -10/-10ºC, reduzindo desta forma as glass bubbles, base holes e o cell collapse produzido pelos restantes GLP usados como aerossóis nas latas de poliuretano. Testes posteriores tiveram como objectivo estudar a influência directa de cada gás, propano, n-butano e isobutano nas espumas. Para tal, foram usadas duas referências do estudo com GLP comercializáveis, 7396 (30 /0 /70 w/w %) e 7442 (0/ 0/ 100 w/w %). Com estes resultados concluí-se que o n-butano produz más propriedades nas espumas a -10/- 10ºC, formando grandes quantidades de glass bubbles, base holes e cell collapse. Contudo, o uso de propano reduz essas glass bubbles, mas em contrapartida, forma cell collapse.Isobutano, porém diminui o cell collapse mas não as glass bubbles. Dos resultados experimentais podemos constatar que o caudal a +5/+5ºC e densidade das espumas a +23/+23ºC, são influenciados pela composição do GLP. O propano e n-butano aumentam o caudal de espuma das latas e a sua densidade, ao contrário com o que acontece com o isobutano. Todavia, pelos resultados obtidos, o isobutano proporciona os melhores rendimentos de espumas por lata. Podemos concluir que os GLPs que contivessem cerca de 30 w/w % de propano (bons caudais a +5/+5ºC e menos glass bubbles a -10/-10ºC), e cerca 70 w/w % de isobutano (bons rendimentos de espumas, bem como menos cell collapse a -10/-10ºC) produziam as melhores espumas. Também foram desenvolvidos testes sobre a influência da quantidade de gás GLP presente numa lata. A análise do volume de GLP usado, foi realizada com base na melhor espuma obtida nos estudos anteriores, 7396, com um GLP (30 / 0/ 70 w/w%), e foram feitas alterações ao seu volume gás GLP presente no pré-polímero. O estudo concluiu, que o aumento do volume pode diminuir a densidade das espumas, e o seu decréscimo, um aumento da densidade. Também indico u que um mau ajuste do volume poderá causar más propriedades nas espumas. A análise económica, concluiu que o custo das espumas com mais GLP nas suas formulações, reduz-se em cerca de 3%, a quando de um aumento do volume de GLP no pré-polímero de cerca de 8 %. Esta diminuição de custos deveu-se ao facto, de um aumento de volume de gás, implicar uma diminuição na quantidade das restantes matérias-primas, com custos superiores, já que o volume útil total da lata terá de ser sempre mantido nos 750 mL. Com o objectivo de melhorar a qualidade da espuma 7396 (30/0/70 w/w %) obtida nos ensaios anteriores adicionou-se à formulação 7396 o HFC-152a (1,1-di fluoroetano). Os resultados demonstram que se formam espumas com más propriedades, especialmente a -10/-10ºC, contudo proporcionou excelentes shaking rate da lata. Através de uma pequena análise de custos não é aconselhável o seu uso pelos resultados obtidos, não proporcionando um balanço custo/benefício favorável. As três melhores espumas obtidas de todos os estudos foram comparadas com uma espuma de inverno presente no mercado. 7396 e 7638 com um volume de 27 % no prépolímero e uma composição de GLP (30/ 0 / 70 w/w%) e (13,7/ 0/ 86,3 w/w%), respectivamente, e 7690, com 37 % de volume no pré-polímero e GLP (30/ 0 / 70 w/w%), apresentaram em geral melhores resultados, comparando com a espuma benchmark . Contudo, os seus shaking rate a -10/-10ºC, de cada espuma, apresentaram valores bastante inferiores à composição benchmarking.
Resumo:
OBJETIVO: Existem vários critérios para a escolha do número de componentes a serem mantidos na análise de componentes principais. Esta escolha pode dar-se por critérios arbitrários (critério de Kaiser p.ex.) ou subjetivos (fatores interpretáveis). Apresenta-se o critério de simulação de Lébart e Dreyfus. MÉTODO: É gerada uma matriz de números aleatórios, sendo realizada a análise de componentes principais a partir dessa matriz. Os componentes extraídos de um conjunto de dados como este representam um limite inferior que deve ser ultrapassado para que um componente possa ser selecionado. Utiliza-se como exemplo a análise de componentes principais da escala de Hamilton para a depressão (17 itens) numa amostra de 130 pacientes. RESULTADOS E CONCLUSÕES: O método de simulação é comparado com o método de Kaiser. É mostrado que o método de simulação mantém apenas os componentes clinicamente significativos ao contrário do método de Kaiser.