1000 resultados para Tendão do calcâneo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento actual de aplicações paralelas com processamento intensivo (HPC - High Performance Computing) para alojamento em computadores organizados em Cluster baseia-se muito no modelo de passagem de mensagens, do qual é de realçar os esforços de definição de standards, por exemplo, MPI - Message - Passing Interface. Por outro lado, com a generalização do paradigma de programação orientado aos objectos para ambientes distribuídos (Java RMI, .NET Remoting), existe a possibilidade de considerar que a execução de uma aplicação, de processamento paralelo e intensivo, pode ser decomposta em vários fluxos de execução paralela, em que cada fluxo é constituído por uma ou mais tarefas executadas no contexto de objectos distribuídos. Normalmente, em ambientes baseados em objectos distribuídos, a especificação, controlo e sincronização dos vários fluxos de execução paralela, é realizada de forma explicita e codificada num programa principal (hard-coded), dificultando possíveis e necessárias modificações posteriores. No entanto, existem, neste contexto, trabalhos que propõem uma abordagem de decomposição, seguindo o paradigma de workflow com interacções entre as tarefas por, entre outras, data-flow, control-flow, finite - state - machine. Este trabalho consistiu em propor e explorar um modelo de execução, sincronização e controlo de múltiplas tarefas, que permita de forma flexível desenhar aplicações de processamento intensivo, tirando partido da execução paralela de tarefas em diferentes máquinas. O modelo proposto e consequente implementação, num protótipo experimental, permite: especificar aplicações usando fluxos de execução; submeter fluxos para execução e controlar e monitorizar a execução desses fluxos. As tarefas envolvidas nos fluxos de execução podem executar-se num conjunto de recursos distribuídos. As principais características a realçar no modelo proposto, são a expansibilidade e o desacoplamento entre as diferentes componentes envolvidas na execução dos fluxos de execução. São ainda descritos casos de teste que permitiram validar o modelo e o protótipo implementado. Tendo consciência da necessidade de continuar no futuro esta linha de investigação, este trabalho é um contributo para demonstrar que o paradigma de workflow é adequado para expressar e executar, de forma paralela e distribuída, aplicações complexas de processamento intensivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A indústria química dos detergentes e produtos de higiene e limpeza desenvolve e comercializa produtos que são essenciais na promoção da qualidade de vida. Neste segmento de mercado actuar responsavelmente significa actuar eticamente ao longo da toda a cadeia de valor. A performance do negócio pode ser melhorada de forma sustentável (económica, ambiental e socialmente) tendo em consideração as necessidades das Partes Interessadas. Esta Tese desenvolve um Guia para a implementação de um Sistema de Gestão da Responsabilidade Social, segundo a norma NP 4469-1:2008, neste sector químico de actividade, integrando no seu Modelo de Gestão as seguintes dimensões: Qualidade (Norma NP EN ISSO 9001:2008), Ambiente (Norma NP EN ISSO 14001:2004) e Segurança e Higiene no Trabalho (Norma OHSAS 18001:2007).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objectivos estudar a relação entre os teores de aerossóis medidos na cidade de Lisboa e as condições meteorológicas registadas. O período de amostragem decorreu entre 20 de Janeiro e 19 de Fevereiro de 2009, a designada “Campanha de Inverno” do Projecto de Investigação “Contaminação da atmosfera urbana de Lisboa por Hidrocarbonetos Aromáticos Policíclico (PAHLis)”. Foram seleccionados dois locais da cidade de Lisboa com diferentes níveis de poluição: Olivais e Avenida da Liberdade. Nestes locais existem também estações da Rede da Qualidade do Ar cujos dados foram usados para completar e validar os dados por nós recolhidos. O étodo usado para a determinação da concentração de PM foi o método de referência (método gravimétrico) referido pelas normas EN 12341:1998 e EN 14907:2005. Em cada local, foram recolhidas partículas em suspensão no ar através de amostradores Gent e High-Vol. O Gent é um amostrador de baixo volume (cerca de 12 L de ar por minuto) que possui duas unidades de filtros de policarbonato de dois tamanhos de poro sendo assim possível a recolha de partículas PM2.5 e PM10-2.5 separadamente. O High-Vol é um equipamento de amostragem de alto volume (cerca de 1 m3 de ar por minuto) e onde foram usados dois filtros de quartzo em cascata para a recolha de partículas PM2.5 e PM10-2.5. Verificou-se que os amostradores não foram totalmente eficazes na separação das partículas, segundo os diâmetros aerodinâmicos pretendidos. Os dados apresentaram alguma discrepância face aos dados obtidos pelos High-Vol e também face aos dados obtidos pelos medidores das estações. Optou-se assim pela utilização dos dados obtidos com o amostrador High-Vol. Verifica-se que a Avenida da Liberdade é dos locais de estudo o mais poluído e que a concentração da fracção fina é mais elevada. Tal facto deve-se provavelmente à intensa circulação automóvel, principal fonte poluidora no local. Para o período em estudo e neste local, foi obtida uma média de 16.5 µg/m3 de PM 10-2.5 e 21.9 µg/m3 de PM 2.5. No mesmo período registou-se nos Olivais uma média de 9.0 µg/m3 para a fracção grosseira e 12.3 µg/m3 para a fracção fina. Os dados meteorológicos foram fornecidos pelas estações meteorológicas localizadas nas imediações dos locais em estudo: estação MeteoPortela e estação do Instituto Dom Luiz. Foram recolhidos e tratados dados de temperatura, precipitação, humidade, velocidade e direcção do vento. Com recurso à análise de componentes principais (PCA) foi possível verificar a relação e influência das condições meteorológicas sobre os teores de partículas. Foi possível a redução das variáveis iniciais tendo-se concluído que a humidade, a percipitação e a velocidade do vento são as condições que maior influência têm sobre as partículas. Um aumento destas variáveis provoca uma diminuição global do teor das partículas. Para uma clara definição de um modelo PCA para estes dados, os estudos deverão se prolongados no tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo geral deste artigo é analisar os fatores de ordem social que influenciam a saúde dos homens portugueses, em particular os comportamentos que se associam à construção das masculinidades. Para satisfazer o objetivo da pesquisa proceder‑se‑á à análise de alguns indicadores estatísticos produzidos por fontes oficiais, de natureza amostral ou administrativa, como o INE ou o EUROSTAT. O modelo de masculinidade que emerge da análise dos indicadores nacionais apresentados remete para um ideário de género muito associado a estilos de vida e desempenho de profissões com impacto negativo na esperança média de vida dos homens portugueses. Tendo como referência as mulheres, destaca‑se no caso dos homens: maior taxa de acidentes de viação; consumo de álcool e tabaco mais acentuado e prematuro; mais mortes associadas ao consumo de drogas; mais mortes autoprovocadas intencionalmente; maior incidência da SIDA; maior número de acidentes de trabalho. ABSTRACT - The purpose of this article is to analyze the social factors that influence the health of Portuguese men, namely the behaviors that can be associated to the construction of masculinities. To satisfy this objective we will analyze some statistical indicators produced by official sources like INE or EUROSTAT. The model of masculinity that emerges from national indicators analysis is associated to behaviors and consumptions with a negative impact in Portuguese men health and life expectancy. In this article we highlight some of these behaviors: biggest rate of transport accidents; larger and early alcohol and tobacco consumption; more deaths associated to the consumption of drugs; more auto provoked deaths; bigger AIDS incidence; more occupational accidents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de identificar os determinantes do aborto provocado entre mulheres admitidas por complicações decorrentes dos abortos, nos hospitais-maternidades públicos em Fortaleza, CE (Brasil) foram entrevistadas 4.359 pacientes entre 1º de outubro de 1992 e 30 de setembro de 1993. Os dados foram coletados através de questionário estruturado. São apresentados os determinantes dos abortos provocados em 2.084 (48%) mulheres classificadas como tendo induzido aborto. Dois terços (66%) das mulheres relataram a indução do aborto com o uso isolado do Cytotec(R) (misoprostol) ou associado a outro meio abortivo. Os resultados indicam que, na população estudada, a indução do aborto é prática comum entre jovens, solteiras (ou que vivem sem um parceiro estável), de baixa paridade, com escolaridade incipiente e não-usuárias de métodos contraceptivos. Recomenda-se a realização de estudos que investiguem os conhecimentos relacionados a percepções, conceitos culturais do aborto, e às razões por que mulheres pobres fracassam na adoção de métodos de planejamento familiar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

São relatados os dados sobre cesáreas no Estado de São Paulo, entre 1987 e 1993, e verificadas as associações entre a prática de cesáreas e o desenvolvimento social e econômico, adotando como unidades de análise os Escritórios Regionais de Saúde (ERSAs) e os hospitais. Foi realizado estudo transversal, com base em dados secundários, tendo sido estudadas as seguintes variáveis: taxas de cesáreas em 1987, 1992 e 1993 de hospitais e regiões; tipo de prestador; vínculo com ensino médico; coeficiente de mortalidade infantil tardia; número de bancos por habitantes (BANCOS); e potencial de consumo da cidade-sede da região por habitantes (POTCONS). As taxas de cesárea no período foram cerca de 48% no Estado de São Paulo; nos ERSAs, entre 21,3 (Capão Bonito) e 85,2% (São José do Rio Preto, 1987); as hospitalares variaram entre zero e 100%, sendo mais altas nos hospitais privados (56% em 1993). Os hospitais universitários apresentaram taxas estáveis, cerca de 39%. Na regressão linear múltipla, BANCOS e POTCONS explicaram 48% da variação das taxas regionais. Questiona-se a estabilização da taxa estadual, pois os dados sugerem que está havendo deslocamento da moda das taxas hospitalares para valores mais altos. É necessária uma reorientação da assistência ao nascimento, uma vez que a cesárea, além de seu caráter de procedimento médico, adquiriu o de bem de consumo, um sintoma da perversa lógica que vem se instalando no sistema de saúde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O REACH é a nova legislação comunitária em termos de substâncias químicas e entrou em vigor no dia 1 de Junho de 2007, tendo sido publicado no Jornal Oficial da União Europeia a 30 de Dezembro de 2006, sob a forma de Regulamento nº 1907/2006 do Parlamento Europeu e do Conselho, de 18 de Dezembro de 2006, relativo ao Registo, Avaliação, Autorização e Restrição dos produtos químicos. O presente trabalho teve como objectivo efectuar o enquadramento teórico, legal e técnico-científico do REACH, assim como efectuar uma avaliação das implicações da aplicação do regulamento nas estruturas empresariais e elaborar uma metodologia de apoio à implementação do REACH em função da natureza dos agentes económicos envolvidos. Na primeira parte do trabalho é feito um enquadramento histórico da indústria química, assim como da legislação aplicada às substâncias químicas, para se perceber a evolução da regulamentação comunitária ao longo do tempo. Posteriormente é descrito o regulamento REACH, nomeadamente as etapas necessárias para a sua implementação, e a legislação complementar que foi desenvolvida com o objectivo de orientar as empresas e organizações no cumprimento do REACH. De modo a efectuar uma caracterização da implementação do regulamento REACH nos diversos agentes económicos foram efectuados seis casos de estudo. A avaliação das implicações foi feita através da construção de guiões de entrevista e de contacto directo com as empresas, estruturas associativas e governamentais. No decorrer dos casos de estudos foi possível verificar que as empresas apresentam dificuldades na aplicação da nova legislação, devido a complexidade e extensão no regulamento. Tendo em conta os diferentes passos que são necessários para implementar o REACH, foi elaborado um manual de apoio onde são descritos os processos, os prazos e os passos para assegurar o cumprimento da nova legislação. Através da análise dos casos de estudo, foi possível verificar que os custos associados ao REACH são altos, obrigando as empresas a repensar a sua estratégia empresarial e o seu portfólio de substâncias, assim como criar metodologias de apoio para a implementação dos novos requisitos exigidos pela nova legislação. O REACH veio aumentar significativamente a comunicação na cadeia de abastecimento, exigindo que exista partilha de dados entre empresas que fabricam ou importam a mesma substância, evitando a duplicação de ensaios em animais vertebrados e reduzindo os custos associados a testes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação incide na aplicação de uma metodologia para a localização e dimensionamento de dispositivos, que permitem reconfigurações de redes de distribuição (órgãos de corte de rede), tendo por objectivo a minimização de perdas e aumento da fiabilidade incorporando não só aspectos técnicos como também económicos. Para efectuar a avaliação técnica foram utilizados métodos de redução de perdas e de aumento da fiabilidade. Para elaborar a avaliação económica, foram utilizados os rácios B/C, VAL e a TIR para cada reconfiguração de rede identificada. Na redução de perdas, foi aplicado um algoritmo que para diferentes níveis de carga identificada a melhor configuração da rede que minimiza as perdas. Para cada configuração da rede identificada anteriormente foi avaliada a correspondente fiabilidade, tendo por base os indicadores da qualidade de serviço aprovados e definidos por entidades reguladoras. As configurações escolhidas foram avaliadas com base nos ganhos obtidos na redução de perdas e no aumento de fiabilidade. Estes métodos foram aplicados a uma rede de distribuição real, e a escolha incidiu na rede eléctrica de São Vicente em Cabo Verde. No final foi elaborada uma avaliação económica que serviu de suporte à decisão técnica. A aplicação dos métodos permitiu evidenciar que com a colocação de órgãos de telecomando da rede em 6 locais, obtém-se uma redução de perdas de cerca 5,3% e energia não distribuída de 41,1% em cada ano. Analisando o investimento para o período de vida útil dos órgãos de corte de rede (15 anos), apresenta um rácio B / C = 3,50, VAL = 511k€ e uma TIR = 69,4%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Segundo estudos oficiais, a produção de energia eléctrica, principalmente através da queima de combustíveis fósseis, é responsável pelo aumento das emissões de gases de efeito estufa na atmosfera, contribuindo desta forma para o aquecimento global do planeta. Nesse sentido, os governos de diversos países, assumiram vários compromissos a nível internacional, com o propósito de reduzir o impacto ambiental associado à procura global de energia no planeta, assim como a utilização de recursos naturais. Desses compromissos, destaca-se o Protocolo de Quioto, no qual Portugal assumiu o compromisso de não apresentar um aumento de emissões superior a 27% relativamente ao ano de referência de 1990, durante o período de 2008-2012. Nesse sentido, uma das medidas para o controlo dessas emissões, passa pelo uso racional de energia consumida, nomeadamente através do sector doméstico, um dos sectores que registou uma maior subida do consumo de energia eléctrica nos últimos tempos. Uma das formas de o fazer, poderá passar pela escolha racional dos equipamentos que se utilizam hoje em dia no sector doméstico, baseada por sua vez em normas e critérios específicos para o efeito. No presente trabalho, o problema de maximização de eficiência energética é apresentado e formulado como um problema de optimização, sendo a sua resolução suportada em algoritmos evolucionários, nomeadamente algoritmos genéticos como referência o método Simplex para comparação de resultados e posterior validação dos algoritmos genéticos, enquanto método de optimização para a resolução deste tipo de problema. Factores como o ciclo de vida do produto, investimento realizado e despesas no consumo de energia eléctrica, serão tidos em conta, quando existe a necessidade de se obter uma solução ecológica e económica, assegurando ao mesmo tempo a satisfação do consumidor e do meio ambiente. Serão apresentadas ainda, diversas hipóteses de parametrização, tendo em vista os estudos de desempenho dos dois métodos de optimização a serem analisados e será elaborado ainda um estudo, para avaliar o desempenho dos algoritmos genéticos, mediante a variação de parâmetros a ele associados. No final conclui-se que a utilização dos AG’s é adequada ao problema de maximização da eficiência energética providenciando soluções distintas na escolha de equipamentos com valores semelhantes de indicadores económicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação referem-se as potencialidades dos programas simuladores de circuitos electrónicos, as suas principais vantagens e desvantagens nas fases de projecto, desenvolvimento e teste de circuitos electrónicos. Justifica-se a escolha do programa simulador Pspice, (Programa de Simulação com ênfase em Circuitos Integrados) em detrimento de outros softwares de simulação. Desenvolve-se o studo dos dispositivos semicondutores de potência (DSP) nomeadamente, díodos de potência PIN e IGBTs utilizados no Circuito Modulador de Impulsos Genéricos de Alta Tensão (MIGAT), bem como dos seus modelos equivalentes e parâmetros principais, para implementação em simulação utilizando o programa Pspice. Propõe-se um método de determinação dos parâmetros do modelo do díodo de potência utilizando essencialmente os manuais dos fabricantes. A validade dos parâmetros determinados é aferida, recorrendo-se à análise comparativa entre os dados obtidos através do modelo Pspice do díodo e as curvas características reais do componente. Referem-se as diferentes tipologias e modos de funcionamento para o circuito MIGAT, baseados no conceito do “gerador de Marx”, recorrendo unicamente a DSP. Tendo como base o simulador Pspice, analisam-se as características relevantes de funcionamento, para uma versão simplificada do circuito MIGAT que gera impulsos bipolares de alta tensão, para vários regimes de funcionamento, com diversos tipos de carga e com a inclusão de elementos parasitas (capacidades e indutâncias distribuídas) e estuda-se a influência destes elementos nos regimes de funcionamento do circuito e das condições mais favoráveis para o funcionamento dos DSP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O rearranjo [3,3]-sigmatrópico térmico (180ºC) de diferentes N-alil-N-sililoxi enaminas foi estudado. Os respectivos produtos de rearranjo (éteres de óxima) foram obtidos com rendimentos elevados (80%). A regiosselectividade, [3,3] vs [1,3], e a diastereosselectividade do processo foram elevadas, superior a 99% e aproximadamente 80%, respectivamente. Foi demonstrada a importância do grupo sililoxilo na promoção do rearranjo face a substratos sem este tipo de substituição. Posteriormente, foi estudada a possibilidade de aceleração aniónica deste tipo de rearranjo por formação de oxianião ligado ao átomo de azoto. A estratégia seguida para a formação do mesmo, consistiu na O-dessililação de diferentes N-alil-N-sililoxi enaminas tendo-se obtido as nitronas correspondentes ou produtos de ciclização. Num exemplo envolvendo um derivado de isoxazole-5-(2H)-ona foi observado um aumento de velocidade do rearranjo por reacção com ião etoxilo. Este aumento de velocidade foi atribuído à abertura de anel do N-O éster cíclico para o N-oxianião, seguida de rearranjo e posterior fecho. Métodos alternativos de aceleração do rearranjo por geração de carga positiva, parcial ou completa, no átomo de azoto levaram apenas à dessililação das N-alil-N-sililoxi enaminas. ABSTRACT - [3,3]-sigmatropic rearrangement of a variety of N-allyl-N-silyloxy enamines was studied. The corresponding rearrangement products (oxime-ethers) were obtained in high yields (80%). High regioselectivity, [3,3] vs [1,3] (> 99%) and in appropriate cases, diastereoselectivity (80%) were observed. The importance of the silyloxy group in promoting the rearrangement, in relation to substrates lacking this functionality, is underlined. The possible anionic acceleration of the rearrangements was next examined by O-desilylation the N-silyloxy group bonded to the nitrogen. Attempted generation of these species however, was found to lead either to the corresponding nitrones or to cyclization products. In one particular example involving an isoxazol-5-(2H)-one derivative rate enhancement of rearrangement was indeed observed with ethoxide ion. It is tentatively attributed to ring opening of the cyclic N-O ester to the N-oxyanion ethyl ester followed by rearrangement and subsequent reclosure. Alternative methods to accelerate the process by generating a partial or complete positive charge on the nitrogen atom led only to desilylation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho estudou-se a lixiviação de um concentrado de sulfureto de zinco e a recuperação de Fe(III) de soluções sulfúricas por extracção líquido-líquido. Nos estudos de lixiviação utilizou-se o ião férrico (Sulfato de ferro ou cloreto de ferro) como agente oxidante e avaliaram-se os efeitos da razão sólido/líquido, concentração do ião Fe(III) e o tipo do meio (sulfúrico e clorídrico) na eficiência da lixiviação. Os resultados mostraram que para uma razão sólido/líquido de 5% foi possível lixiviar 48% de zinco e 15% do cobre em 2h de lixiviação com uma solução de 0,5 M H2SO4 e 0,11 Fe2(SO4) a 80°C. A lixiviação do cobre é favorecida em meio clorídrico onde cerca de 23% de cobre foi lixiviado, após 2h, com uma razão sólido/líquido de 20% e uma solução de 0,5 M FeCl3 2 M HCI e 1 M NaCl a 80°C, quando em meio sulfúrico tinha sido possível lixiviar apenas 6% deste metal. A realização de dois andares de lixiviação, sendo o primeiro em meio sulfúrico e o segundo em meio clorídrico, permitiu aumentar as taxas de lixiviação dos metais, tendo-se obtido um rendimento global de 45% de Zn e 23% de Cu nas seguintes condições experimentais: s/l=20% (p/v), T=80°C, v=350 rpm, 1º andar com [Fe2(SO4)3]=0,25 M; [H2SO4]=2 M e 2º andar com [FeCl3]=0,5 M; [HCl]=2 M; [NaCl]=1 M. Nos estudos de extracção líquido-líquido para a recuperação de Fe(III) de meios sulfúricos utilizam-se misturas de extractantes, i.e. um ácido organofosforado (lonquest ou DEHPA) com uma amina primária (JMT). Foi ainda, testada a presença de um modificador (isotridecanol) no solvente. As várias misturas revelaram uma elevada afinidade para o ferro na gam de PH’s 1,04 a 1,74 e elevada selectividade para a separação ferro/zinco. Os factores de separação Fe/Zn atingem valores na gama 1000-8000, sendo favorecidos pelas elevadas concentrações de ferro na fase orgânica. A presença de modificador no solvente dificultou a extracção de ferro da fase aquosa mas favoreceu a respectiva reextracção da fase orgânica carregada que foi efectuada com uma solução 50 g/L de H2SO4. Na etapa final deste trabalho, aplicou-se a extracção líquido-líquido para a remoção de Cu e Fe duma líxvia obtida por lixiviação sulfúrica do concentrado de sulfureto de zinco. Numa primeira etapa extraiu-se todo o cobre da lixívia com a aldoxima Acorga M5640(10%(v/v)). Em seguida, traçou-se a isotérmica para a extracção de Fe(III) da lixívia utilizando DEHPA(20%(v/v)/JMT(10%(v/v)) com (20%(v7v)) e sem 2-octanol. Os resultados obtidos mostram que ambos os sistemas podem ser utilizados na extracção do fero do meio sulfúrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resultados de diversos estudos têm apontado a relevância da hipertensão arterial, do hábito de fumar e da hipercolesterolemia como fatores de risco para a doença isquêmica do coração (DIC). Poucos autores têm investigado a existência de gradiente linear relacionando a quantidade destas exposições com os eventos coronarianos. Com o objetivo de avaliar o efeito de diferentes graus de exposição a estas variáveis sobre a DIC, procedendo-se ao ajustamento para possíveis variáveis de confusão, foi feito estudo planejado sob a forma de desenho tipo caso-controle, tendo a coleta de dados se estendido de março de 1993 a fevereiro de 1994. Foram estudados 833 indivíduos de ambos os sexos, na faixa etária compreendida entre 30 e 69 anos completos, sendo todos residentes no Município de São Paulo, SP (Brasil). Foram comparados 280 casos com 553 controles (285 controles de vizinhança e 268 controles hospitalares). A técnica estatística utilizada para a análise dos dados foi a regressão logística multivariada. Os resultados permitiram identificar gradiente linear para as variáveis duração da hipertensão arterial e para número de cigarros consumidos/dia. As variáveis duração do hábito de fumar e duração da hipercolesterolemia, embora tendo apresentado "odds ratios" significantes para as respectivas categorias de exposição, não apresentaram gradiente linear. Foram discutidos aspectos metodológicos que poderiam exercer influência sobre a tendência dos "odds ratios" nas categorias de exposição das variáveis duração do hábito de fumar e duração da hipercolesterolemia. Conclui-se que os efeitos dose-resposta observados para as variáveis duração da hipertensão arterial e número de cigarros consumidos/dia foram independentes da presença nos modelos de potentes fatores de risco para a doença isquêmica do coração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objectivo do presente trabalho foi desenvolver, implementar e validar métodos de determinação de teor de cálcio (Ca), magnésio (Mg), sódio (Na), potássio (K) e fósforo (P) em biodiesel, por ICP-OES. Este método permitiu efectuar o controlo de qualidade do biodiesel, com a vantagem de proporcionar uma análise multi-elementar, reflectindo-se numa diminuição do tempo de análise. Uma vez que o biodiesel é uma das principais fontes de energia renovável e alternativa ao diesel convencional, este tipo de análises revela-se extremamente útil para a sua caracterização. De acordo com a análise quantitativa e qualitativa e após a validação dos respectivos ensaios, apresentam-se, na Tabela 1 as condições optimizadas para cada elemento em estudo. As condições de trabalho do ICP-OES foram escolhidas tendo em conta as características do elemento em estudo, o tipo de equipamento utilizado para a sua análise, e de modo a obter a melhor razão sinal/intensidade de fundo. Para a validação dos ensaios foram efectuados ensaios de recuperação, determinados limites de detecção e quantificação, ensaios de repetibilidade e reprodutibilidade, e verificação das curvas de calibração. Na tabela 2 apresentam-se os comprimentos de onda escolhidos (livres de interferências) e respectivos limites de detecção e quantificação dos elementos analisados por ICP-OES, na posição radial e radial atenuado.