1000 resultados para método global


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Foram feitas considerações sobre a escolha do método bacteriológico no diagnóstico da tuberculose pulmonar em Saúde Pública, mostrando que o mesmo preenche condições de ordem epidemiológica, econômica e social, sugeridas pelos programas nacionais de controle da tuberculose.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Englobado na temática do desenvolvimento de métodos in vitro para avaliação da biodisponibilidade de fármacos, este trabalho de investigação teve como objectivo a optimização de um método para avaliar em simultâneo a dissolução e permeabilidade de fármacos usando uma célula de fluxo bilateral com membranas de Polyvinylidene Fluoride (PVDF). Através de uma avaliação inicial, na qual se testou o efeito de diversas variáveis na permeabilidade da cafeína e do ácido acetilsalicílico, obtiveram-se resultados que permitiram concluir que os ensaios realizados são mais reprodutíveis, quando a célula de fluxo é utilizada em circulação unilateral no lado dador e com agitação do lado aceitador. Observou-se ainda que o método permite detectar a influência do pH (Papp da cafeína a pH 7,4 e 4,5: 4,84±1,57x105cm.s-1 e 6,00±0,70x105cm.s app do ácido acetilsalicílico a pH 7,4 e 4,5: 3,85±0,38x10-5cm.s-1 e 5,1 1±0,65x105cm.s-1) e dos excipientes (Papp da cafeína isoladamente e em presença de excipientes: 6,76±1,22 x 10-5cm.s1 e 5,84±0,43x10-5cm.s-1 app do ácido acetilsalicílico isoladamente e em presença de excipientes: 7,07±1,56x105 cm.s e 5,19±0,23x10-5cm.s1) na permeabilidade dos compostos. Na avaliação da dissolução testou-se um método descrito na United States Pharmacopeia (USP) com meio de dissolução a pH 4,5 e um método com meio de dissolução a pH 7,4 pois na perspectiva de no futuro se realizarem ensaios com membranas celulares Caco-2, foi necessário testar um meio compatível com estas. As percentagens de dissolução dos ensaios a pH 7,4 foram de 96,3% para a cafeína e de 87,1% para o ácido acetilsalicílico, o que permitiu a utilização deste meio, visto ter sido superior ao limite mínimo de 80% estabelecido pela USP. Após estabelecimento das metodologias de dissolução e permeabilidade individuais, passou-se ao acoplamento das duas técnicas, tendo sido realizados ensaios de dissolução/permeabilidade com uma forma farmacêutica contendo os dois compostos em estudo (Melhoral®), nos quais se obtiveram permeabilidades aparentes de 3,97±0,37x105cm.s1 e 3,69±0,29 x105cm.s para a cafeína e ácido acetilsalicílico a pH 4,5 e de 3,77±0,40x105cm.s e 4,08± 0,04x1 05cm.s1 para a cafeína e ácido acetilsalicílico a pH 7,4, resultados estes que foram reprodutíveis e descriminativos e que perspectivam a possibilidade da utilização do sistema para futuros trabalhos envolvendo membranas de culturas celulares (Caco-2) ou tecidos (pele ou intestino).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A biotecnologia permite modificar geneticamente plantas e animais, dando origem a organismos geneticamente modificados (OGM). Os benefícios e potenciais riscos relacionados com os transgénicos são controversos, pelo que o consumidor tem direito a decidir sobre o seu consumo. A soja é a maior representante do mercado global de transgénicos, tornando-se importante a sua monitorização. O objectivo do presente trabalho é detectar e quantificar soja geneticamente modificada em géneros alimentícios. Para tal, 11 amostras de dois lotes diferentes, de uma mesma marca, de géneros alimentícios contendo soja, para consumo humano, foram analisadas pelo método de PCR em tempo real para detecção e quantificação de DNA transgénico. Do total das amostras analisadas, 7 resultaram negativas (63,6%) e 4 positivas (36,4%) para a detecção de DNA de soja transgénica, correspondentes a 3 alimentos: leite, farinha e granulado de soja. As quantidades encontradas variaram entre 0,07% (granulado de soja) e 0,22% (farinha de soja), sugestivas de contaminação ambiental por serem inferiores a 0,4%. Este trabalho evidencia a necessidade do controlo dos alimentos, mostrando ainda a possibilidade de aplicação da PCR em tempo real na detecção e quantificação de OGM mesmo em alimentos processados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde o início da utilização da imunocitoquímica em anatomia patológica, um dos objectivos tem sido detectar as quantidades mais ínfimas de antigénio, tornando-o visível ao microscópio óptico. Vários sistemas de amplificação têm sido aplicados de forma a concretizar este objectivo, tendo surgido um grupo genérico de métodos simples e que apresentam uma amplificação superior: são os denominados métodos do polímero indirecto. Tendo em conta a variedade de métodos disponíveis, os autores propõem-se comparar a sensibilidade de quatro sistemas de amplificação, que recorrem ao método do polímero indirecto com horseradish peroxidase (HRP). Foram utlizadas lâminas de diferentes tecidos fixados em formol e incluídos em parafina, nos quais se procedeu à utilização de 15 antigénios distintos. Na amplificação recorreu-se a quatro sistemas de polímero indirecto (Dako EnVision+ System K4006; LabVision UltraVision LP Detection System TL-004-HD; Novocastra NovoLink RE7140-k; Vector ImmPRESS Reagent Kit MP-7402). A observação microscópica e classificação da marcação obtida foi feita com base num algoritmo que enquadra intensidade, marcação específica, contraste e fundo num score global que pode tomar valores entre 0 e 25. Para o tratamento estatístico foi utilizado o teste oneway ANOVA com post-hoc de tukey (alfa=0.05). O melhor resultado obtido em termos de par média/desvio-padrão dos scores globais foi o do NovoLink (22.4/2.37) e o pior EnVision+ (17.43/3.86). Verificou-se ainda que existite diferença estatística entre os resultados obtidos pelo sistema NovoLink e os sistemas UltraVision (p=.004), ImmPRESS (p=.000) e EnVision+ (p=.000). Concluiu-se que o sistema que permitiu a obtenção de melhores resultados, neste estudo, foi o NovoLink.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em populações muito afetadas por reações tuberculínicas inespecíficas, o teste tuberculínico padronizado, via de regra, superestima a infecção tuberculosa. A bem sucedida aplicação do método de Bhattacharya (método gráfico para a decomposição de uma distribuição de freqüências em componentes normais) na análise de resultados do teste em população contaminada por infecçõcs atípicas sugeriu seu uso nos resultados obtidos cm populações vacinadas com BCG. Assim, na análise dos resultados de dois inquéritos tuberculínicos realizados na cidade de São Paulo, SP (Brasil), em 1982 (escolares vacinados entre o segundo e o sexto ano de vida), e em 1988 (escolares vacinados no primeiro ano de vida), foi possível a caracterização e quantificação da componente normal devida à infecção natural em cada uma das misturas. Na população de 1982 o diâmetro médio das reações foi de 17,40 mm com desvio padrão 3,72 mm, e a proporção de infectados foi de 7,71% contra 4,85% nos não vacinados; na população de 1988, o diâmetro médio foi 17,00 mm com desvio padrão 4,67 mm, e a proporção de infectados foi de 4,14% contra 4,48% nos não vacinados. Concluiu-se que o método permite estimar a prevalência da infecção tuberculosa em populações com alta cobertura vacinal, desde que a vacina tenha sido aplicada no primeiro ano de vida.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O principal objectivo deste trabalho foi o desenvolvimento de um programa de cálculo automático de lajes baseado no método dos elementos finitos. Como introdução ao tema é efectuada uma análise da evolução das estruturas ao longo dos tempos, diferenciando os vários tipos de estruturas que existem. São explicitados os conceitos fundamentais da mecânica dos sólidos, bem como os vários tipos de análises estruturais, os tipos de elementos finitos mais utilizados, bem como a classificação dos diversos tipos de estruturas. Devido à importância que o método dos elementos finitos tem na engenharia actual, é apresentada uma breve descrição da sua evolução ao longo dos tempos. Como abordagem mais abrangente são apresentados os conceitos gerais do método, evoluindo depois para uma descrição mais pormenorizada, aplicado aos elementos de laje adoptados no programa de cálculo desenvolvido. As lajes podem ser modeladas através da teoria das lajes finas ou espessas, sendo apresentados os fundamentos teóricos e simplificações que sustentam estas duas abordagens. A validação do programa de cálculo elaborado nesta dissertação, é efectuado através de dois exemplos, um modelo simples e outro mais complexo onde se demonstram todas as potencialidades do programa. A validação é efectuada através da comparação dos resultados, obtidos pelo programa e por um programa de referência no cálculo estrutural, o SAP2000. O desenvolvimento deste trabalho tem um objectivo mais abrangente de no futuro, este módulo, poder ser incluído num pacote de cálculo estrutural alargado a outro tipo de estruturas. Com este pressuposto, foi efectuada uma descrição pormenorizada da organização do programa e das suas capacidades e desenvolvido um manual de utilização.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente relatório de estágio enquadra-se no âmbito do Trabalho Final de Mestrado no curso de Engenharia Civil, perfil de Estruturas, do Instituto Superior de Engenharia de Lisboa. Desta forma, foi realizado um estágio na empresa Opway – Engenharia, com a duração de 16 semanas, com integração na Direcção Técnica e de Inovação desempenhando as funções de análise e acompanhamento de obras de arte especiais de médio vão. Pretende-se demonstrar, neste relatório, a grande especificidade deste tipo de construções quer ao nível do Dimensionamento como ao nível da Construção. Ao nível do processo de Dimensionamento são apresentados dois capítulos, um relativo ao projecto de alterações de uma Viga de Lançamento e outro relativo ao projecto de execução de um viaduto construído através deste tipo de cimbres. Desta forma, o Capítulo 2 aborda os principais factores a ter em consideração num caso de adaptação de um cimbre deste tipo, utilizado anteriormente num determinado tabuleiro, para um novo tabuleiro a realizar, com características necessariamente diferentes. Por sua vez, o Capítulo 5 prende-se com uma análise e descrição de um projecto de execução de um tabuleiro de um viaduto construído por este método construtivo. No âmbito de Construção, o Capítulo 3 aborda o método de funcionamento deste tipo de cimbres desde que chega ao local da empreitada, até à sua saída. O Capítulo 4 consiste numa avaliação de soluções para a construção de um tabuleiro, onde a solução inicial consistia na construção por avanços sucessivos enquanto que a solução variante, (adoptada), consiste na construção por lançamento incremental. Neste capítulo está demonstrada a variação de quantidades de materiais entre as duas soluções e consequentemente a sua tradução em valores monetários. Os casos de estudo, que serviram como base de trabalho, ao nível do acompanhamento da construção foram, o Viaduto ferroviário de alta velocidade “O Marco”, em Santiago de Compostela e o Viaduto sobre o Rio Águeda em Ciudad Rodrigo. Ao nível do aspecto de projecto, o caso em estudo foi do Viaduto sobre a Ribeira de Zacarias (V3), integrado na subconcessão do Douro Interior, Alfândega da Fé. Este relatório resulta da análise de documentos relativos aos diferentes tipos de projecto mencionados como também da oportunidade de realização de acompanhamento da construção deste tipo de obras de arte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho entende a dedução das Equações de Compatibilidade, Equilíbrio, bem como as Leis Constitutivas, de modo a resolver numericamente problemas de Elasticidade Linear formulados para Lajes de Betão. A solução numérica é obtida usando o Método dos Elementos Finitos, implementado em freeFEM++, e comparada com os resultados conseguidos no SAP2000 e com os dados tabelados nas Tabelas de Barès, validando-se desta forma os modelos implementados através do freeFEM++.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O cardioversor desfibrilhador implantável (CDI) tem sido associado à redução da morte súbita. O impacto nas dimensões da qualidade de vida (QV) permanece controverso. Método: 36 doentes foram submetidos a implantação de CDI. Foram avaliados antes da intervenção e após ao 3º e 6º mês pelo Kansas City Cardiomiophathy Questionnaire. Resultados: Os sintomas e conhecimento da situação clínica não se modificaram. Ao 3º mês, houve melhoria das actividades de vida diária, funcionalidade e QV, não mantida aos 6 meses. Aos 3º e 6º meses houve melhoria da percepção da satisfação com a vida e estilo de vida. A esperança associou-se à melhoria da percepção da satisfação com a vida. Conclusão: A implantação de CDI, associa-se a um benefício mantido na dimensão social e de percepção pessoal da QV e a um benefício transitório da condição física e percepção global da QV, sem influenciar os sintomas e conhecimento da condição clínica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de captura e recaptura, embora não seja novo, tem sido pouco usado em estudos epidemiológicos. Trata-se de método bem adaptável e adequado para estudar populações incomuns ou esquivas, como usuários de drogas endovenosas. Tem sido usado para estudar populações diversas como prostitutas que trabalham na rua ou volume de células vermelhas no homem. Permite ainda estimar a incidência e a prevalência de doenças de forma mais precisa do que os métodos tradicionais e com uma melhor relação custo-benefício. Devido à sua relevância dentro do campo da epidemiologia, decidiu-se realizar uma revisão sobre esse método, enfocando a história, as principais aplicações e apontando as suposições teóricas que o fundamentam. Seu potencial para futuras pesquisas epidemiológicas é promissor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objectivos estudar a relação entre os teores de aerossóis medidos na cidade de Lisboa e as condições meteorológicas registadas. O período de amostragem decorreu entre 20 de Janeiro e 19 de Fevereiro de 2009, a designada “Campanha de Inverno” do Projecto de Investigação “Contaminação da atmosfera urbana de Lisboa por Hidrocarbonetos Aromáticos Policíclico (PAHLis)”. Foram seleccionados dois locais da cidade de Lisboa com diferentes níveis de poluição: Olivais e Avenida da Liberdade. Nestes locais existem também estações da Rede da Qualidade do Ar cujos dados foram usados para completar e validar os dados por nós recolhidos. O étodo usado para a determinação da concentração de PM foi o método de referência (método gravimétrico) referido pelas normas EN 12341:1998 e EN 14907:2005. Em cada local, foram recolhidas partículas em suspensão no ar através de amostradores Gent e High-Vol. O Gent é um amostrador de baixo volume (cerca de 12 L de ar por minuto) que possui duas unidades de filtros de policarbonato de dois tamanhos de poro sendo assim possível a recolha de partículas PM2.5 e PM10-2.5 separadamente. O High-Vol é um equipamento de amostragem de alto volume (cerca de 1 m3 de ar por minuto) e onde foram usados dois filtros de quartzo em cascata para a recolha de partículas PM2.5 e PM10-2.5. Verificou-se que os amostradores não foram totalmente eficazes na separação das partículas, segundo os diâmetros aerodinâmicos pretendidos. Os dados apresentaram alguma discrepância face aos dados obtidos pelos High-Vol e também face aos dados obtidos pelos medidores das estações. Optou-se assim pela utilização dos dados obtidos com o amostrador High-Vol. Verifica-se que a Avenida da Liberdade é dos locais de estudo o mais poluído e que a concentração da fracção fina é mais elevada. Tal facto deve-se provavelmente à intensa circulação automóvel, principal fonte poluidora no local. Para o período em estudo e neste local, foi obtida uma média de 16.5 µg/m3 de PM 10-2.5 e 21.9 µg/m3 de PM 2.5. No mesmo período registou-se nos Olivais uma média de 9.0 µg/m3 para a fracção grosseira e 12.3 µg/m3 para a fracção fina. Os dados meteorológicos foram fornecidos pelas estações meteorológicas localizadas nas imediações dos locais em estudo: estação MeteoPortela e estação do Instituto Dom Luiz. Foram recolhidos e tratados dados de temperatura, precipitação, humidade, velocidade e direcção do vento. Com recurso à análise de componentes principais (PCA) foi possível verificar a relação e influência das condições meteorológicas sobre os teores de partículas. Foi possível a redução das variáveis iniciais tendo-se concluído que a humidade, a percipitação e a velocidade do vento são as condições que maior influência têm sobre as partículas. Um aumento destas variáveis provoca uma diminuição global do teor das partículas. Para uma clara definição de um modelo PCA para estes dados, os estudos deverão se prolongados no tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Segundo estudos oficiais, a produção de energia eléctrica, principalmente através da queima de combustíveis fósseis, é responsável pelo aumento das emissões de gases de efeito estufa na atmosfera, contribuindo desta forma para o aquecimento global do planeta. Nesse sentido, os governos de diversos países, assumiram vários compromissos a nível internacional, com o propósito de reduzir o impacto ambiental associado à procura global de energia no planeta, assim como a utilização de recursos naturais. Desses compromissos, destaca-se o Protocolo de Quioto, no qual Portugal assumiu o compromisso de não apresentar um aumento de emissões superior a 27% relativamente ao ano de referência de 1990, durante o período de 2008-2012. Nesse sentido, uma das medidas para o controlo dessas emissões, passa pelo uso racional de energia consumida, nomeadamente através do sector doméstico, um dos sectores que registou uma maior subida do consumo de energia eléctrica nos últimos tempos. Uma das formas de o fazer, poderá passar pela escolha racional dos equipamentos que se utilizam hoje em dia no sector doméstico, baseada por sua vez em normas e critérios específicos para o efeito. No presente trabalho, o problema de maximização de eficiência energética é apresentado e formulado como um problema de optimização, sendo a sua resolução suportada em algoritmos evolucionários, nomeadamente algoritmos genéticos como referência o método Simplex para comparação de resultados e posterior validação dos algoritmos genéticos, enquanto método de optimização para a resolução deste tipo de problema. Factores como o ciclo de vida do produto, investimento realizado e despesas no consumo de energia eléctrica, serão tidos em conta, quando existe a necessidade de se obter uma solução ecológica e económica, assegurando ao mesmo tempo a satisfação do consumidor e do meio ambiente. Serão apresentadas ainda, diversas hipóteses de parametrização, tendo em vista os estudos de desempenho dos dois métodos de optimização a serem analisados e será elaborado ainda um estudo, para avaliar o desempenho dos algoritmos genéticos, mediante a variação de parâmetros a ele associados. No final conclui-se que a utilização dos AG’s é adequada ao problema de maximização da eficiência energética providenciando soluções distintas na escolha de equipamentos com valores semelhantes de indicadores económicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação surgiu com o objectivo de se criar uma base de dados de Toners para impressoras e fotocopiadoras e um método fiável de comparação de espectros para estudos forenses e de investigação criminal. Para viabilizar o estudo, efectuou-se à priori a recolha de várias amostras de Toners, de diferentes marcas, de cartuchos originais e remanufacturados aplicando de seguida dois métodos de análise distintos: a Espectroscopia de infravermelho com transformada de Fourier (FT-IR) e a Espectroscopia de Absorção-Reflexão (ATR - Reflectância total atenuada). A espectroscopia FT-IR permitiu obter a base de dados de espectros em suporte KBr e usando o software OPUS, das várias amostras de Toners dos cartuchos originais e remanufacturados recolhidas. Para se criar o método de comparação entre espectros, realizou-se o mesmo procedimento mas agora para amostras obtidas por raspagem de um papel impresso /quadrados 2x2), bem como para o papel de impressão para se poder descontar este da amostra. Dado que o interesse desta análise se remetia ao estudo de textos escritos, efectuou-se a análise de um texto padrão por Espectroscopia FT-IR. O método foi utilizado à posteriori como método de comparação e uma alternativa (não destrutiva) ao método de FT-IR para se aplicar a casos reais. Os espectros foram obtidos num microscópio usando o silício como acessório ATR e o software OMNIC. Finalizado o estudo pode-se concluir, quanto à espectroscopia FT-IR, que as amostras da marca HP e Minolta apresentaram espectros muito semelhantes, quando se faz uma análise global dos mesmos. No entanto, as restantes marcas são também muito parecidas entre si, mas ainda é possível encontrar algumas distinções quando se efectua a comparação visual principalmente abaixo da zona de impressão digital (<6000 cm-1). Relativamente aos Toners remanufacturados, constata-se que são muito semelhantes e que diferem da marca original apenas pelo elevado grau de humidade que possuem. No que diz respeito ao método ATR, verificou-se que apesar de ser um método não destrutivo da amostra revela-se bastante limitado, devido ao uso do cristal de Silício como acessório que só atinge comprimentos de onda entre 4000-1500cm-1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desempenho do ensaio por enzimas imuno-adsorvidas (ELISA), mediante o emprego de conjuntos de reativos produzidos em escala comercial, para determinação de aflatoxina, foi avaliado em condições experimentais, através de análises repetidas, em amostras de leite em pó reconstituído contaminadas com concentrações conhecidas da fração M1 da toxina. Para os níveis de 0,10; 0,20; 0,50; e, 1,00 ng/ml, os percentuais de recuperação foram: 83,0%; 87,5%; 103,0%; e, 111,8%, respectivamente. O desvio-padrão relativo, para as referidas concentrações, foi, respectivamente, 65,5%; 31,8%; 10,9% e 13,6% (n=10, para cada nível de contaminação). Os resultados obtidos demonstram que o método é apropriado para pesquisas e levantamentos sobre a ocorrência de aflatoxina M1 em leite, sobretudo nas faixas de concentração entre 0,20 - 1,00 ng/ml.