992 resultados para Fadiga. Compósitos. Rede modular. Curva S-N de probabilidade.Distribuição de Weibull
Resumo:
The static and cyclic assays are common to test materials in structures.. For cycling assays to assess the fatigue behavior of the material and thereby obtain the S-N curves and these are used to construct the diagrams of living constant. However, these diagrams, when constructed with small amounts of S-N curves underestimate or overestimate the actual behavior of the composite, there is increasing need for more testing to obtain more accurate results. Therewith, , a way of reducing costs is the statistical analysis of the fatigue behavior. The aim of this research was evaluate the probabilistic fatigue behavior of composite materials. The research was conducted in three parts. The first part consists of associating the equation of probability Weilbull equations commonly used in modeling of composite materials S-N curve, namely the exponential equation and power law and their generalizations. The second part was used the results obtained by the equation which best represents the S-N curves of probability and trained a network to the modular 5% failure. In the third part, we carried out a comparative study of the results obtained using the nonlinear model by parts (PNL) with the results of a modular network architecture (MN) in the analysis of fatigue behavior. For this we used a database of ten materials obtained from the literature to assess the ability of generalization of the modular network as well as its robustness. From the results it was found that the power law of probability generalized probabilistic behavior better represents the fatigue and composites that although the generalization ability of the MN that was not robust training with 5% failure rate, but for values mean the MN showed more accurate results than the PNL model
Resumo:
Nowadays technological trend is based on finding materials that could support low weight with satisfactory mechanical properties and for this reason composite material became a very attractive topic in research projects all over the world. Due to its heterogenic properties, this type of material shows scatter in mechanical test results, especially in cyclic loading. Therefore it is important to predict its fatigue strength behaviour by statistic analysis, once fatigue causes approximately 90% of the failure in structural components. The present work aimed to investigate the fatigue behaviour of the Twill/Cycom 890 composite, which is carbon fiber reinforced with polymeric resin as matrix and manufactured via RTM process (Resin Transfer Molding). All samples were tested in different tensile level in triplicate in order to associate these values. The statistical analysis was conducted with Two-Parameter Weibull Distribution and then evaluated the fatigue life results for the composite. Weibull graphics were used to determine the scale and shape parameters. The S-N curve for the Twill/Cycom composite was drawn and indicated the number of cycles to occur the first damages in this material. The probability of failure was associated with material reliability, as shown in graphics for the different tensile levels and fatigue life. In addition, the laminate was evaluated by ultrasonic inspection showing a regular impregnation. The fractographic analysis conducted by SEM showed failure mechanisms for polymeric composites associated to cyclic loadings ... (Complete abstract click electronic access below)
Resumo:
This work consists basically in the elaboration of an Artificial Neural Network (ANN) in order to model the composites materials’ behavior when submitted to fatigue loadings. The proposal is to develop and present a mixed model, which associate an analytical equation (Adam Equation) to the structure of the ANN. Given that the composites often shows a similar behavior when subject to float loadings, this equation aims to establish a pre-defined comparison pattern for a generic material, so that the ANN fit the behavior of another composite material to that pattern. In this way, the ANN did not need to fully learn the behavior of a determined material, because the Adam Equation would do the big part of the job. This model was used in two different network architectures, modular and perceptron, with the aim of analyze it efficiency in distinct structures. Beyond the different architectures, it was analyzed the answers generated from two sets of different data – with three and two SN curves. This model was also compared to the specialized literature results, which use a conventional structure of ANN. The results consist in analyze and compare some characteristics like generalization capacity, robustness and the Goodman Diagrams, developed by the networks.
Resumo:
This study shows the implementation and the embedding of an Artificial Neural Network (ANN) in hardware, or in a programmable device, as a field programmable gate array (FPGA). This work allowed the exploration of different implementations, described in VHDL, of multilayer perceptrons ANN. Due to the parallelism inherent to ANNs, there are disadvantages in software implementations due to the sequential nature of the Von Neumann architectures. As an alternative to this problem, there is a hardware implementation that allows to exploit all the parallelism implicit in this model. Currently, there is an increase in use of FPGAs as a platform to implement neural networks in hardware, exploiting the high processing power, low cost, ease of programming and ability to reconfigure the circuit, allowing the network to adapt to different applications. Given this context, the aim is to develop arrays of neural networks in hardware, a flexible architecture, in which it is possible to add or remove neurons, and mainly, modify the network topology, in order to enable a modular network of fixed-point arithmetic in a FPGA. Five synthesis of VHDL descriptions were produced: two for the neuron with one or two entrances, and three different architectures of ANN. The descriptions of the used architectures became very modular, easily allowing the increase or decrease of the number of neurons. As a result, some complete neural networks were implemented in FPGA, in fixed-point arithmetic, with a high-capacity parallel processing
Resumo:
Artificial neural networks are usually applied to solve complex problems. In problems with more complexity, by increasing the number of layers and neurons, it is possible to achieve greater functional efficiency. Nevertheless, this leads to a greater computational effort. The response time is an important factor in the decision to use neural networks in some systems. Many argue that the computational cost is higher in the training period. However, this phase is held only once. Once the network trained, it is necessary to use the existing computational resources efficiently. In the multicore era, the problem boils down to efficient use of all available processing cores. However, it is necessary to consider the overhead of parallel computing. In this sense, this paper proposes a modular structure that proved to be more suitable for parallel implementations. It is proposed to parallelize the feedforward process of an RNA-type MLP, implemented with OpenMP on a shared memory computer architecture. The research consistes on testing and analizing execution times. Speedup, efficiency and parallel scalability are analyzed. In the proposed approach, by reducing the number of connections between remote neurons, the response time of the network decreases and, consequently, so does the total execution time. The time required for communication and synchronization is directly linked to the number of remote neurons in the network, and so it is necessary to investigate which one is the best distribution of remote connections
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA
Resumo:
A inovação e o desenvolvimento tecnológico obrigam os fabricantes a uma intensa competição global, face a uma redução no ciclo de desenvolvimento dos produtos e a rigorosos constrangimentos de custos, ao mesmo tempo que enfrentam consumidores mais exigentes, que procuram produtos de Qualidade. A Fiabilidade do bem é um aspecto marcante dessa Qualidade. Tradicionalmente o acesso a essa fiabilidade é baseado em testes de vida, normalmente acelerados. Todavia, para produtos altamente fiáveis, pouca informação a respeito da sua fiabilidade é fornecida por via dos testes de vida, nos quais poucas ou nenhumas falhas são observadas. Perante este cenário, a análise de degradação surge como uma técnica alternativa atractiva aos clássicos métodos de estudo da fiabilidade, apresentando como grande vantagem o facto de não ser necessário que nenhuma falha ocorra para se obter informação sobre a fiabilidade do bem, beneficiando ainda de uma redução no tempo de duração dos testes. Este trabalho começa por abordar os fundamentos da teoria da fiabilidade, e sua aplicação ao ciclo de vida dos componentes, fazendo alusão aos modelos de fiabilidade, ou distribuições de vida que mais usualmente se ajustam as várias fases de vida de um bem, nomeadamente a distribuição Exponencial, Normal e com particular destaque à versátil distribuição de Weibull. De seguida é feita a abordagem à análise de degradação dos componentes como uma técnica útil para estimar a fiabilidade de um bem, e neste contexto é feita a abordagem de uma metodologia de análise da degradação com base na monitorização da condição dos componentes. Quando um bem está sujeito a um processo de degradação, onde se pode fixar um valor limite para a característica que está a ser medida, pode-se recolher uma série de dados relativos ao processo em causa, servindo estes para ajustar um modelo matemático de degradação, que por extrapolação da curva de degradação permitem estimar o tempo até à falha, e por consequência o tempo de vida útil restante.O trabalho enquadra ainda a análise da degradação dos componentes numa perspectiva de apoio à estratégia de manutenção, no domínio da manutenção condicionada, e em particular no quadro da manutenção preditiva, tendo por objectivo fazer a optimização do programa de manutenção a aplicar, de forma a minimizar os custos globais da função manutenção. Nesta vertente são também considerados os intervalos P-F para monitorizar a evolução do estado de falha, em que é necessário definir o valor do parâmetro analisado para o qual se considere o início do processo de falha e o correspondente valor de falha efectiva. É apresentado um estudo prático com a colaboração duma prestigiada empresa de comercialização e distribuição de veículos pesados, focalizado num modelo de camião específico comercializado por essa marca. O estudo está direccionado para o sistema de travagem do veículo, mais concretamente a um dos seus componentes mecânicos, as pastilhas de travão. Este componente tem associado o mecanismo de degradação conhecido por desgaste. A medição do parâmetro de desgaste será feita por meio da técnica de simulação de valores, tendo no entanto em consideração, uma base de dados restrita de valores reais. O estudo de fiabilidade deste componente tem por objectivo fundamental estimar o tempo de Vida Útil Restante (“Residual Useful Life, RUL”) para as pastilhas, ou seja, até que se atinja o valor limite admissível (considerado como falha). Para os cálculos foi utilizado o programa informático denominado Weibull ++7. O caso de estudo permitiu determinar para situações particulares a relação entre o desgaste e a distância percorrida, estimando-se desta forma a vida restante (em distância), até ao momento em que o componente atinge o limite de desgaste considerado admissível. O grande potencial de estudo futuro passa pela elaboração de um modelo (com base em dados reais de exploração), que contemple os principais factores de influência, e que duma forma expedita permita a gestores de frota, fabricantes ou responsáveis da marca fazer a análise da fiabilidade do componente, tendo em conta uma situação específica de exploração. O conhecimento da fiabilidade das pastilhas pode levar à optimização da exploração do veiculo, por meio de um planeamento estratégico da sua manutenção,nomeadamente ao nível do aprovisionamento, na programação das intervenções, e em particular quanto à vida útil restante para as pastilhas.
Resumo:
O aumento da utilização e da oferta de tipos de serviços nas redes de acesso conduziram à necessidade de encontrar uma solução capaz de responder às exigências da sociedade de informação, em particular dos utilizadores, sendo o consequente aumento de largura de banda a medida mais tomada pelos operadores de telecomunicações. Perante este cenário é inevitável a migração das redes de acesso de cobre para redes de acesso em fibra óptica de elevada disponibilidade. Esta dissertação propõe-se realizar um estudo sobre o projecto e a optimização das redes ópticas de distribuição de serviços urbanos e exemplificar esse tema através da implementação de um caso de estudo. Para tal, numa primeira fase, foi realizado o estudo das várias redes de acesso existentes no mercado, DSL, cabo, Ethernet, etc., bem como a sua evolução para redes PON e a migração de serviços. Numa segunda etapa procedeu-se à aplicação dos conceitos, anteriormente analisados, através da implementação prática do projecto numa rede urbana em fibra óptica, no município da Amadora, com recurso à tecnologia actual. A implementação do caso de estudo foi útil para melhorar a largura de banda existente, o tipo de acesso e a quantidade de serviços de rede disponibilizados, bem como a redução de custos com as comunicações de voz e dados.
Resumo:
O sector eléctrico foi, historicamente, um sector de monopólio natural, controlado por uma única entidade a qual assegurava as diversas actividades relacionadas com o fornecimento da energia eléctrica, desde a sua produção, transporte e distribuição até ao abastecimento ao consumidor final. Esta é uma realidade que tem vindo a ser radicalmente alterada nas últimas décadas. Após longos anos de actuação em regime de monopólio (público, privado ou misto) verticalmente integrado, verificaram-se em diversos países, em diferentes latitudes, várias experiências que resultaram em processos de desverticalização do sector com separação das suas actividades. O primeiro destes exemplos ocorreu no Chile no final da década de 70 do século XX, tendo as alterações consistido, basicamente, no fim dos monopólios da energia eléctrica e na introdução duma lógica de concorrência no mercado da electricidade. Esta passou a verificar-se na produção e na comercialização, mantendo-se como monopólios as actividades ligadas a infra-estruturas de rede como são o transporte e a distribuição.
Resumo:
Reflectir sobre noções como liberdade individual, democracia, o papel dos meios de comunicação e dos produtos culturais, é uma das principais tarefas das ciências sociais e humanas, reflexão particularmente pertinente nestes primeiros anos do séc. XXI marcados pela popularização de dispositivos tecnológicos destinados à circulação de informação em rede e pela virtualização de mecanismos de distribuição de bens de consumo cultural. Adomo constitui hoje uma das fontes mais importantes surgidas nos últimos 50 anos para esta reflexão. Marcado pelo advento do Nacional Socialismo e a perseguição de todos os "degenerados da condição ariana" (judeus, comunistas e homossexuais), Adomo produziu ao longo de quatro décadas, uma reflexão que marcou indelevelmente muitos autores que, escrevendo sobre a contemporaneidade, a adoptaram ou a ela se opuseram. A pergunta que coloco, e que serve de ponto de partida para este artigo, é proposta por Jameson: é hoje possível ler Adomo e Horkheimer junto à piscina? (1990: 248), ou posto de outra forma, que lugar ocupa a obra de Adomo como ferramenta para perspectivar o mundo actual.
Resumo:
1 - Foram examinadas as fezes de 2.666 indivíduos, operários e funcionários de duas Emprésas industriais, situadas, uma na cidade do Rio de Janeiro e outra no Estado do Rio (Brasil); 2 - Dos 2.666 indivíduos, 1941 (72.80%) estavam parasitados por um ou mais helmintos e 725 (27,20%) tinham seus exames de fezes negativos; 3 - De cada um dos 2.666 indivíduos foi feito um hemograma completo, tendo sido aproveitada a taxa de eosinófilos que, em associação com os exames de fezes, constituiu o objeto principal dêste trabalho. 4 - Na Tabela A observa-se o número de vêzes em que cada um dos vermes foi observado e seus respectivos percentuais. Embora não seja um trabalho de epidemiologia, verifica-se que 46,81% são infestados pelo Trichuris trichiura; 23,85% pelo Strongyloides stercoralis; 22,46% pelo Necator americanus e/ou Ancylostoma duodenale; 20,51% pelo Ascaris lumbricóides; 1,65% pelo Schistosoma mansoni; 0.67% pelo Enterobius vermicularis; 0,26% por Taenia solium ou T. saginata e 0,11% por Hymenolepis nana; 5 - Os exames de fezes foram feitos pelos métodos de Faust (ou de Ritchie), de Willis, de Baermann e de sedimentação; 6 - A eosinofilia anotada foi a relativa ou em seu percentual, sendo considerada hipereosinofilia uma taxa de eosinófilos igual ou superior a 5% (Eo > 5%); 7 - Foram abordados de modo conciso os fatores que provocam oscilações na eosinofilia normal tais como a idade, a raça, as horas do nictêmero, os fatores físicos, o sexo, os fatores químicos e outros; 8 - Tratou-se de modo mais extenso das diferenças entre as hipereosinofilias parasitárias e não parasitárias, tendo sido focalizada a dinâmica da eosinofilia traduzida na curva de Lavier. 9 - A distribuição dos 2.666 casos foi feita pelos diferentes graus de eosinofilia, tendo sido levantados gráficos e traçadas curvas sôbre a distribuição de cada helminto e de suas associações. 10 - Por ser necessário à explanação do assunto, foi criado o "índice eosinofilico", o qual corresponde à relação entre o número de casos de um determinado grupo com Eo > 5% e Eo < 5%. Para o total de casos positivos, ao "índice eosinofílico" denominamos "índice eosinofílico médio" em para o total dos negativos "índice eosinofílico residual"; 11 - Estabelecendo-se o "índice eosinofílico", pode-se ajuizar a capacidade eosinofilogênica de cada helminto isoladamente, bem como a de suas associações; 12 - Atenção especial foi dada aos problemas da existência da hipereosinofilia nos casos com exames coprológicos negativos para helmintos, tendo-se passado em revista vários dos aspectos biológicos que o assunto comporta; 13 - Outra questão de grande importância clínica explanada neste trabalho é a do encontro de casos de parasitismo por vermes, sem hipereosinofilia. O autor, baseado em seus dados e em outros colhidos na literatura sôbre o assunto, discute a fisiopatologia da eosinopoiese nas helmintoses e ojerece uma interpretação para êste fato ainda não defintivamente esclarecido.
Resumo:
A reprodução e a sobrevivência de Synthesiomyia nudiseta (Wulp, 1883) foram estudadas entre 22 e 28ºC, UR de 70% e fotoperíodo de 12h. Os dados foram analisados através de classes de idade, tabelas de vida de fecundidade, análise de sobrevivência pela distribuição de Weibull e análise das curvas de sobrevivência através do conceito de entropia (H). A taxa intrínseca de aumento natural (r m), taxa finita de aumento (lambda), taxa de reprodução líquida (R0) e tempo médio de uma geração (T) foram 0,534; 1,7; 59,439 e 7,65 respectivamente, sugerindo rápido crescimento populacional nestas condições. Isso foi causado pela alta fecundidade, confirmando o que ocorre para esta espécie, com média de 266 ovos/fêmea e período de pré-oviposição de 10,25 dias. O modelo de Weibull demonstrou que a sobrevivência não foi constante ao longo da vida de adultos, com mortalidade pronunciada depois da quarta e quinta semanas e valores de H intermediários aos valores teóricos esperados (0,0-0,5) para os ambos sexos, demonstrando que a curva de sobrevivência é retangular (com maior impacto da mortalidade na quarta e quinta semanas após a emergência). Os resultados apresentados podem ser considerados como base para estudos pormenorizados da dinâmica e do crescimento populacional desta espécie em hábitats naturais.
Resumo:
In this thesis we study some problems related to petroleum reservoirs using methods and concepts of Statistical Physics. The thesis could be divided percolation problem in random multifractal support motivated by its potential application in modelling oil reservoirs. We develped an heterogeneous and anisotropic grid that followin two parts. The first one introduce a study of the percolations a random multifractal distribution of its sites. After, we determine the percolation threshold for this grid, the fractal dimension of the percolating cluster and the critical exponents ß and v. In the second part, we propose an alternative systematic of modelling and simulating oil reservoirs. We introduce a statistical model based in a stochastic formulation do Darcy Law. In this model, the distribution of permeabilities is localy equivalent to the basic model of bond percolation
Resumo:
A S(+) cetamina é um fármaco amplamente utilizado na medicina para induzir anestesia e a associação com midazolam é empregada para minimizar seus efeitos adversos. Associações medicamentosas podem resultar em interações farmacocinéticas e a disponibilidade de métodos bioanalíticos para a determinação da cetamina em plasma constitui ferramenta útil para a avaliação do perfil cinético do fármaco administrado isoladamente ou em associação. O presente estudo teve como objetivo o desenvolvimento e validação de um método analítico para determinação da cetamina em plasma por cromatografia líquida de alta eficiência (HPLC) e a investigação do perfil farmacocinético da cetamina em quatro cães hígidos da raça Beagle. A S(+) cetamina (10mg/kg) foi administrada pela veia cefálica em dose única isoladamente (protocolo I) ou associada ao midazolam (0.2mg/kg) (protocolo II) em estudo cruzado com intervalo de uma semana para washout. Amostras seriadas de sangue foram coletadas no intervalo de oito horas e analisadas por HPLC para a avaliação do perfil farmacocinético utilizando modelo bicompartimental. O método bioanalítico apresentou limites de confiança aceitáveis para sua aplicação em estudos de farmacocinética e os parâmetros área sob a curva (ASC0-8), volume de distribuição (Vd), clearance total (Clt), meia vida de eliminação (t/12 ß), constante de eliminação (ß), meia vida de distribuição (t1/2α) e constante de distribuição (α) não mostraram diferenças estatísticas significativas entre os grupos (p < 0.05, Wilcoxon). Os resultados obtidos sugerem que a redução dos efeitos colaterais da cetamina decorrente do uso da associação cetamina-midazolam não está relacionada a alterações no perfil farmacocinético da cetamina.
Resumo:
Pós-graduação em Química - IQ