998 resultados para validação
Resumo:
A família de especificações WS-* define um modelo de segurança para web services, baseado nos conceitos de claim, security token e Security Token Service (STS). Neste modelo, a informação de segurança dos originadores de mensagens (identidade, privilégios, etc.) é representada através de conjuntos de claims, contidos dentro de security tokens. A emissão e obtenção destes security tokens, por parte dos originadores de mensagens, são realizadas através de protocolos legados ou através de serviços especiais, designados de Security Token Services, usando as operações e os protocolos definidos na especificação WS-Trust. O conceito de Security Token Service não é usado apenas no contexto dos web services. Propostas como o modelo dos Information Cards, aplicável no contexto de aplicações web, também utilizam este conceito. Os Security Token Services desempenham vários papéis, dependendo da informação presente no token emitido. São exemplos o papel de Identity Provider, quando os tokens emitidos contêm informação de identidade, ou o papel de Policy Decision Point, quando os tokens emitidos definem autorizações. Este documento descreve o projecto duma biblioteca software para a realização de Security Token Services, tal como definidos na norma WS-Trust, destinada à plataforma .NET 3.5. Propõem-se uma arquitectura flexível e extensível, de forma a suportar novas versões das normas e as diversas variantes que os Security Token Services possuem, nomeadamente: o tipo dos security token emitidos e das claims neles contidas, a inferência das claims e os métodos de autenticação das entidades requerentes. Apresentam-se aspectos de implementação desta arquitectura, nomeadamente a integração com a plataforma WCF, a sua extensibilidade e o suporte a modelos e sistemas externos à norma. Finalmente, descrevem-se as plataformas de teste implementadas para a validação da biblioteca realizada e os módulos de extensão da biblioteca para: suporte do modelo associado aos Information Cards, do modelo OpenID e para a integração com o Authorization Manager.
Resumo:
As comunicações electrónicas são cada vez mais o meio de eleição para negócios entre entidades e para as relações entre os cidadãos e o Estado (e-government). Esta diversidade de transacções envolve, muitas vezes, informação sensível e com possível valor legal. Neste contexto, as assinaturas electrónicas são uma importante base de confiança, fornecendo garantias de integridade e autenticação entre os intervenientes. A produção de uma assinatura digital resulta não só no valor da assinatura propriamente dita, mas também num conjunto de informação adicional acerca da mesma, como o algoritmo de assinatura, o certificado de validação ou a hora e local de produção. Num cenário heterogéneo como o descrito anteriormente, torna-se necessária uma forma flexível e interoperável de descrever esse tipo de informação. A linguagem XML é uma forma adequada de representar uma assinatura neste contexto, não só pela sua natureza estruturada, mas principalmente por ser baseada em texto e ter suporte generalizado. A recomendação XML Signature Syntax and Processing (ou apenas XML Signature) foi o primeiro passo na representação de assinaturas em XML. Nela são definidas sintaxe e regras de processamento para criar, representar e validar assinaturas digitais. As assinaturas XML podem ser aplicadas a qualquer tipo de conteúdos digitais identificáveis por um URI, tanto no mesmo documento XML que a assinatura, como noutra qualquer localização. Além disso, a mesma assinatura XML pode englobar vários recursos, mesmo de tipos diferentes (texto livre, imagens, XML, etc.). À medida que as assinaturas electrónicas foram ganhando relevância tornou-se evidente que a especificação XML Signature não era suficiente, nomeadamente por não dar garantias de validade a longo prazo nem de não repudiação. Esta situação foi agravada pelo facto da especificação não cumprir os requisitos da directiva 1999/93/EC da União Europeia, onde é estabelecido um quadro legal para as assinaturas electrónicas a nível comunitário. No seguimento desta directiva da União Europeia foi desenvolvida a especificação XML Advanced Electronic Signatures que define formatos XML e regras de processamento para assinaturas electrónicas não repudiáveis e com validade verificável durante períodos de tempo extensos, em conformidade com a directiva. Esta especificação estende a recomendação XML Signature, definindo novos elementos que contêm informação adicional acerca da assinatura e dos recursos assinados (propriedades qualificadoras). A plataforma Java inclui, desde a versão 1.6, uma API de alto nível para serviços de assinaturas digitais em XML, de acordo com a recomendação XML Signature. Contudo, não existe suporte para assinaturas avançadas. Com este projecto pretende-se desenvolver uma biblioteca Java para a criação e validação de assinaturas XAdES, preenchendo assim a lacuna existente na plataforma. A biblioteca desenvolvida disponibiliza uma interface com alto nível de abstracção, não tendo o programador que lidar directamente com a estrutura XML da assinatura nem com os detalhes do conteúdo das propriedades qualificadoras. São definidos tipos que representam os principais conceitos da assinatura, nomeadamente as propriedades qualificadoras e os recursos assinados, sendo os aspectos estruturais resolvidos internamente. Neste trabalho, a informação que compõe uma assinatura XAdES é dividia em dois grupos: o primeiro é formado por características do signatário e da assinatura, tais como a chave e as propriedades qualificadoras da assinatura. O segundo grupo é composto pelos recursos assinados e as correspondentes propriedades qualificadoras. Quando um signatário produz várias assinaturas em determinado contexto, o primeiro grupo de características será semelhante entre elas. Definiu-se o conjunto invariante de características da assinatura e do signatário como perfil de assinatura. O conceito é estendido à verificação de assinaturas englobando, neste caso, a informação a usar nesse processo, como por exemplo os certificados raiz em que o verificador confia. Numa outra perspectiva, um perfil constitui uma configuração do serviço de assinatura correspondente. O desenho e implementação da biblioteca estão também baseados no conceito de fornecedor de serviços. Um fornecedor de serviços é uma entidade que disponibiliza determinada informação ou serviço necessários à produção e verificação de assinaturas, nomeadamente: selecção de chave/certificado de assinatura, validação de certificados, interacção com servidores de time-stamp e geração de XML. Em vez de depender directamente da informação em causa, um perfil — e, consequentemente, a operação correspondente — é configurado com fornecedores de serviços que são invocados quando necessário. Para cada tipo de fornecedor de serviços é definida um interface, podendo as correspondentes implementações ser configuradas de forma independente. A biblioteca inclui implementações de todos os fornecedores de serviços, sendo algumas delas usadas for omissão na produção e verificação de assinaturas. Uma vez que o foco do projecto é a especificação XAdES, o processamento e estrutura relativos ao formato básico são delegados internamente na biblioteca Apache XML Security, que disponibiliza uma implementação da recomendação XML Signature. Para validar o funcionamento da biblioteca, nomeadamente em termos de interoperabilidade, procede-se, entre outros, à verificação de um conjunto de assinaturas produzidas por Estados Membros da União Europeia, bem como por outra implementação da especificação XAdES.
Resumo:
Esta tese apresenta o desenvolvimento de um simulador de voo, através da aplicação de um modelo dinâmico de uma aeronave e de sistemas de realidade virtual a uma plataforma electromecânica de Gough-Stewart. Para o efeito, utiliza-se o modelo da aeronave Cessna-172. Neste sentido, apresenta-se o estudo e a análise do sistema de realidade virtual utilizado, confirma-se o funcionamento do modelo matemático da aeronave em ferramenta de cálculo e apresenta-se o modelo da cinemática inversa da plataforma, cuja validação é realizada recorrendo-se a um sensor inercial. Desenvolve-se programação específica para a comunicação entre o software de cálculo numérico e a plataforma electromecânica de Gough-Stewart.
Resumo:
O principal objectivo deste trabalho foi o desenvolvimento de um programa de cálculo automático de lajes baseado no método dos elementos finitos. Como introdução ao tema é efectuada uma análise da evolução das estruturas ao longo dos tempos, diferenciando os vários tipos de estruturas que existem. São explicitados os conceitos fundamentais da mecânica dos sólidos, bem como os vários tipos de análises estruturais, os tipos de elementos finitos mais utilizados, bem como a classificação dos diversos tipos de estruturas. Devido à importância que o método dos elementos finitos tem na engenharia actual, é apresentada uma breve descrição da sua evolução ao longo dos tempos. Como abordagem mais abrangente são apresentados os conceitos gerais do método, evoluindo depois para uma descrição mais pormenorizada, aplicado aos elementos de laje adoptados no programa de cálculo desenvolvido. As lajes podem ser modeladas através da teoria das lajes finas ou espessas, sendo apresentados os fundamentos teóricos e simplificações que sustentam estas duas abordagens. A validação do programa de cálculo elaborado nesta dissertação, é efectuado através de dois exemplos, um modelo simples e outro mais complexo onde se demonstram todas as potencialidades do programa. A validação é efectuada através da comparação dos resultados, obtidos pelo programa e por um programa de referência no cálculo estrutural, o SAP2000. O desenvolvimento deste trabalho tem um objectivo mais abrangente de no futuro, este módulo, poder ser incluído num pacote de cálculo estrutural alargado a outro tipo de estruturas. Com este pressuposto, foi efectuada uma descrição pormenorizada da organização do programa e das suas capacidades e desenvolvido um manual de utilização.
Resumo:
São examinadas as bases filosóficas da validação do conhecimento científico, com o intuito de estabelecer uma visão crítica a respeito da adoção das proposições de Popper na epidemiologia. Ressalta-se o caráter conservador que resulta das limitações técnicas implicadas na sua adoção, não obstante o evidente aumento da racionalidade e da criatividade heurística que propicia.
Resumo:
Este estudo tem como objectivo validar um teste de avaliação da escrita com crianças do 2º ao 4º ano de escolaridade. Estabelecemos como hipóteses que: (1) inicialmente as crianças dominam as regras fonológicas básicas e mais tarde as regras contextuais e as morfológicas, das simples para as complexas, sendo possível criar um teste que avalie esse processo; (2) haverá uma relação entre os itens do teste e dois factores fundamentais: um factor fonológico e um factor morfológico. Foram abrangidas 610 crianças de 13 escolas dos distritos de Lisboa e Évora. As crianças responderam a um teste de escrita e foram classificadas pelos seus professores em função das suas competências. Os resultados do estudo revelam que aos 7 anos as crianças dominam a correspondência som-letra. Até aos 8.5 anos representam palavras de menor complexidade com base numa estratégia fonética. Revelam maior conhecimento das regras morfológicas entre os 9.5 – 10 anos. A análise da validade factorial dos itens do teste confirma que a escrita depende de duas fontes de conhecimento linguístico: a fonologia e a morfologia. Descrevem-se as abordagens desenvolvidas para a validação do teste: a validade de conteúdo, a validade de construção e a validade de critério através da correlação (a) entre os resultados obtidos no teste de escrita e num teste de leitura e (b) entre os resultados obtidos no teste de escrita e a avaliação global das competências ortográficas dos alunos por parte dos professores. Os coeficientes de correlação obtidos sugerem que as capacidades dos alunos na leitura e na escrita foram medidas de forma coerente e que o teste de escrita reflecte as competências ortográficas dos alunos nas actividades escolares.
Resumo:
Foram apresentados os principais resultados do estudo de prevalência de síndrome cerebral orgânica, realizado na cidade do Rio de Janeiro, com a população idosa. A partir de um conjunto de indicadores foram selecionados três distritos: Copacabana, Méier e Santa Cruz. No de Copacabana foi realizado o estudo de validação e confiabilidade do instrumento de diagnóstico. Os resultados de prevalência em Copacabana, Méier e Santa Cruz para síndrome cerebral orgânica foram de 5,9%, 9,8% e 29,7%, respectivamente. Várias hipóteses foram formuladas para resultados tão díspares em uma mesma cidade. São apresentadas associações com vários indicadores socioeconômicos. Idosos com perda de autonomia e dependência são fortemente associados à síndrome cerebral orgânica.
Resumo:
Neste trabalho faz-se uma análise comparativa de duas soluções para um pórtico metálico com travessas inclinadas. Nesta análise estrutural são utilizadas diversas ferramentas informáticas específicas. Com estas ferramentas procede-se à aplicação do método de cálculo por elementos finitos para este caso específico. Uma aplicação teórica do método energético é aplicada, procurando-se assim a validação dos resultados obtidos pelas aplicações informáticas. Com uma introdução teórica à mecânica dos materiais, procura-se a sustentação deste trabalho. A aplicação do Eurocódigo é efectuada em toda a extensão deste trabalho. Uma abordagem sobre este código e a sua aplicação é realizada. Para a definição de cargas a aplicar foi elaborada uma folha de cálculo numa aplicação informática de manipulação simbólica. È realizada uma análise comparativa entre um pórtico realizado com perfis de secção aberta e o mesmo pórtico com perfis de secção fechada. A distribuição de tensões ao longo do elemento estrutural é evidenciada através de diagramas. Os estados limite da estrutura são determinados.
Resumo:
A monitorização de processos ambientais conduz à obtenção de resultados cuja aferição da qualidade é um requisito raramente cumprido. No entanto, importantes decisões de gestão ambiental, sociais e políticas com impacto directo nas populações são tomadas suportadas nestes resultados. A validação de uma medição, como suporte à decisão, é impossível sem o conhecimento da incerteza associada ao próprio resultado. É a incerteza que define a qualidade do resultado. Com este trabalho pretendeu-se contribuir para o aperfeiçoamento do Controlo da Poluição na Refinaria da Galp Energia, em Sines, através do estabelecimento de um projecto de cálculo das incertezas associadas aos teores de poluentes medidos. Foram alvo deste estudo os valores medidos de dióxido de enxofre, óxidos de azoto e partículas monitorizadas. O conhecimento do valor de incerteza associada aos resultados permitirá actuar preventivamente e tomar acções correctivas de modo a garantir o cumprimento pleno da licença ambiental. Para avaliar a incerteza usou-se o procedimento preconizado pela norma ISO em que os passos envolvidos são a especificação do processo de medida, identificação das fontes de incerteza, cálculo da incerteza combinada e cálculo da incerteza expandida. Após a caracterização da actividade da empresa, do enquadramento legislativo, do desempenho no triénio 2005-2007 e da caracterização dos aparelhos de medida, foi feito um estudo estatístico aos valores medidos por estes três analisadores durante diversos períodos do ano de 2007 e foi determinado o modelo de cálculo do valor de incerteza associado a cada uma das medidas. Os valores, associados à respectiva incerteza, foram comparados com os limites impostos pela licença ambiental, verificando-se o cumprimento desta. A determinação da incerteza associada aos resultados de monitorização dos efluentes gasosos desta instalação reforça a credibilidade dos valores medidos, o compromisso da melhoria contínua da qualidade dos processos, produtos e serviços, do desempenho ambiental e da segurança das pessoas e bens, como contributo para um desenvolvimento sustentável desta companhia.
Resumo:
O presente artigo procura compreender de que modo os alunos se envolvem em actividades matemáticas de natureza investigativa. Utilizou uma metodologia qualitativa e interpretativa, apresentando os casos de quatro alunos com níveis de desempenho diferenciados, de uma turma do 3º ano de escolaridade, leccionada pela primeira autora deste texto. A recolha de dados foi realizada por observação participante, apoiada em i)gravações áudio e vídeo das aulas, e ii) documentos produzidos pelos alunos. Também as conversas informais com os alunos foram um contributo bastante valioso. Os dados mostram que os alunos, inicialmente, davam por terminada a actividade, assim que obtinham uma resposta e não procuravam encontrar outras possíveis, pedindo a imediata validação do trabalho. No entanto, à medida que o estudo ia progredindo, a maioria dos alunos deixa de ser tão dependente da professora e assume uma atitude mais crítica relativamente ao seu trabalho. Passa a encarar as actividades com mais naturalidade e, progressivamente, vai-se adaptando a este modo de trabalhar. O estudo conclui, que na generalidade, o envolvimento nas actividades matemáticas de natureza investigativa proporcionou momentos de entusiasmo e alegria. Ao serem desafiados, os alunos, mostraram motivação e persistência em encontrar o caminho conducente à sua realização. Tal envolvimento, além de desenvolver capacidades como o raciocínio e a comunicação, permitiu aprofundar conhecimentos anteriormente estudados, assim como, a apropriação de novos conceitos, ao mesmo tempo, que desenvolveu hábitos de trabalho cooperativo, sentido crítico e autonomia.
Resumo:
Vários estudos demonstraram que os doentes com insuficiência cardíaca congestiva (ICC) têm um compromisso da qualidade de vida relacionada com a saúde (QVRS), tendo esta, nos últimos anos, vindo a tornar-se um endpoint primário quando se analisa o impacto do tratamento de situações crónicas como a ICC. Objectivos: Avaliar as propriedades psicométricas da versão portuguesa de um novo instrumento específico para medir a QVRS na ICC em doentes hospitalizados: o Kansas City Cardiomyopathy Questionnaire (KCCQ). População e Métodos: O KCCQ foi aplicado a uma amostra consecutiva de 193 doentes internados por ICC. Destes, 105 repetiram esta avaliação 3 meses após admissão hospitalar, não havendo eventos ocorridos durante este período de tempo. A idade era 64,4± 12,4 anos (entre 21 e 88), com 72,5% a pertencer ao sexo masculino, sendo a ICC de etiologia isquémica em 42%. Resultados: Esta versão do KCCQ foi sujeita a validação estatística semelhante à americana com a avaliação da fidelidade e validade. A fidelidade foi avaliada pela consistência interna dos domínios e dos somatórios, apresentando valores Alpha de Cronbach idênticos nos vários domínios e somatórios ( =0,50 a =0,94). A validade foi analisada pela convergência, pela sensibilidade às diferenças entre grupos e pela sensibilidade à alteração da condição clínica. Avaliou-se a validade convergente de todos os domínios relacionados com funcionalidade, pela relação verificada entre estes e uma medida de funcionalidade, a classificação da New York Heart Association (NYHA), tendo-se verificado correlações significativas (p<0,01), como medida para avaliar a funcionalidade em doentes com ICC. Efectuou-se uma análise de variância entre o domínio limitação física, os somatórios e as classes da NYHA, tendo-se encontrado diferenças estatisticamente significativas (F=23,4; F=36,4; F=37,4; p=0,0001), na capacidade de descriminação da gravidade da condição clínica. Foi realizada uma segunda avaliação em 105 doentes na consulta do 3º mês após a intervenção clínica, tendo-se observado alterações significativas nas médias dos domínios avaliados entre o internamento e a consulta (diferenças de 14,9 a 30,6 numa escala de 0-100), indicando que os domínios avaliados são sensíveis à mudança da condição clínica. A correlação interdimensões da qualidade de vida que compõe este instrumento é moderada, sugerindo dimensões independentes, apoiando a sua estrutura multifactorial e a adequabilidade desta medida para a sua avaliação. Conclusão: O KCCQ é um instrumento válido, sensível à mudança e específico para medir a QVRS numa população portuguesa com miocardiopatia dilatada e ICC. ABSTRACT - Several studies have shown that patients with congestive heart failure (CHF) have a compromised health-related quality of life (HRQL), and this, in recent years, has become a primary endpoint when considering the impact of treatment of chronic conditions such as CHF. Objectives: To evaluate the psychometric properties of the Portuguese version of a new specific instrument to measure HRQL in patients hospitalized for CHF: the Kansas City Cardiomyopathy Questionnaire (KCCQ). Methods: The KCCQ was applied to a sample of 193 consecutive patients hospitalized for CHF. Of these, 105 repeated the assessment 3 months after admission, with no events during this period. Mean age was 64.4±12.4 years (21-88), and 72.5% were 72.5% male. CHF was of ischemic etiology in 42% of cases. Results: This version of the KCCQ was subjected to statistical validation, with assessment of reliability and validity, similar to the American version. Reliability was assessed by the internal consistency of the domains and summary scores, which showed similar values of Cronbach alpha (0.50-0.94). Validity was assessed by convergence, sensitivity to differences between groups and sensitivity to changes in clinical condition. We evaluated the convergent validity of all domains related to functionality, through the relationship between them and a measure of functionality, the New York Heart Association (NYHA) classification. Significant correlations were found (p<0.01) for this measure of functionality in patients with CHF. Analysis of variance between the physical limitation domain, the summary scores and NYHA class was performed and statistically significant differences were found (F=23.4; F=36.4; F=37.4, p=0.0001) in the ability to discriminate severity of clinical condition. A second evaluation was performed on 105 patients at the 3-month follow-up outpatient appointment, and significant changes were observed in the mean scores of the domains assessed between hospital admission and the clinic appointment (differences from 14.9 to 30.6 on a scale of 0-100), indicating that the domains assessed are sensitive to changes in clinical condition. The correlation between dimensions of quality of life in the KCCQ is moderate, suggesting that the dimensions are independent, supporting the multifactorial nature of HRQL and the suitability of this measure for its evaluation. Conclusion: The KCCQ is a valid instrument, sensitive to change and a specific measure of HRQL in a population with dilated cardiomyopathy and CHF.
Resumo:
Segundo estudos oficiais, a produção de energia eléctrica, principalmente através da queima de combustíveis fósseis, é responsável pelo aumento das emissões de gases de efeito estufa na atmosfera, contribuindo desta forma para o aquecimento global do planeta. Nesse sentido, os governos de diversos países, assumiram vários compromissos a nível internacional, com o propósito de reduzir o impacto ambiental associado à procura global de energia no planeta, assim como a utilização de recursos naturais. Desses compromissos, destaca-se o Protocolo de Quioto, no qual Portugal assumiu o compromisso de não apresentar um aumento de emissões superior a 27% relativamente ao ano de referência de 1990, durante o período de 2008-2012. Nesse sentido, uma das medidas para o controlo dessas emissões, passa pelo uso racional de energia consumida, nomeadamente através do sector doméstico, um dos sectores que registou uma maior subida do consumo de energia eléctrica nos últimos tempos. Uma das formas de o fazer, poderá passar pela escolha racional dos equipamentos que se utilizam hoje em dia no sector doméstico, baseada por sua vez em normas e critérios específicos para o efeito. No presente trabalho, o problema de maximização de eficiência energética é apresentado e formulado como um problema de optimização, sendo a sua resolução suportada em algoritmos evolucionários, nomeadamente algoritmos genéticos como referência o método Simplex para comparação de resultados e posterior validação dos algoritmos genéticos, enquanto método de optimização para a resolução deste tipo de problema. Factores como o ciclo de vida do produto, investimento realizado e despesas no consumo de energia eléctrica, serão tidos em conta, quando existe a necessidade de se obter uma solução ecológica e económica, assegurando ao mesmo tempo a satisfação do consumidor e do meio ambiente. Serão apresentadas ainda, diversas hipóteses de parametrização, tendo em vista os estudos de desempenho dos dois métodos de optimização a serem analisados e será elaborado ainda um estudo, para avaliar o desempenho dos algoritmos genéticos, mediante a variação de parâmetros a ele associados. No final conclui-se que a utilização dos AG’s é adequada ao problema de maximização da eficiência energética providenciando soluções distintas na escolha de equipamentos com valores semelhantes de indicadores económicos.
Resumo:
A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.
Resumo:
Trata-se de estudo observacional, transversal, em população aleatorizada, cujo objetivo foi contribuir para a avaliação da validade dos limites de tolerância biológica (LTB) estabelecidos no Brasil para a plumbemia (Pb-S) e a concentração urinária do ácido delta-aminolevulínico (ALA-U). Para tanto, um grupo de trabalhadores expostos ao chumbo, cujos valores de Pb-S e ALA-U encontravam-se no momento do estudo ¾ bem como nos 2 anos precedentes ¾ abaixo dos LTB brasileiros, foi submetido a exame eletroneurográfico dos nervos mediano direito, ciático-popliteo externo direito, radial direito, radial esquerdo e sural direito. Os resultados foram comparados com os obtidos por intermédio da aplicação do mesmo conjunto de exames em um grupo-controle não exposto ao chumbo. No grupo exposto foram encontrados sinais de comprometimento dos nervos radiais - que diferiam significativamente dos resultados obtidos no grupo-controle (p = 0,0067). Os resultados apontam contra a validação dos LTB estabelecidos no Brasil para a Pb-S e a ALA-U.
Resumo:
Trata-se de um estudo observacional, transversal, com população de estudo aleatorizada, cujo objetivo foi contribuir para a avaliação da validade dos limites de tolerância biológica (LTB) estabelecidos no Brasil para a plumbemia (Pb-S) e a excreção urinária do ácido delta-aminolevulínico (ALA-U). Para tanto, foi aplicada uma variação do WHO Neurobehavioral Core Test Battery a um grupo de trabalhadores expostos ao chumbo, cujos valores de Pb-S e ALA-U encontravam-se no momento bem como nos 2 anos precedentes abaixo dos LTB brasileiros. Os resultados foram comparados aos obtidos por intermédio da aplicação da mesma bateria de testes, em um grupo-controle não exposto ao chumbo. No grupo exposto foram encontrados sinais de comprometimento da memória, humor e coordenação motora fina que diferiam significativamente dos resultados obtidos no grupo-controle (p = 0,02). Os resultados apontam contra a validação dos LTB estabelecidos no Brasil para a Pb-S e a ALA-U.