977 resultados para Applied Load
Resumo:
Systematics is the study of diversity of the organisms and their relationships comprising classification, nomenclature and identification. The term classification or taxonomy means the arrangement of the organisms in groups (rate) and the nomenclature is the attribution of correct international scientific names to organisms and identification is the inclusion of unknown strains in groups derived from classification. Therefore, classification for a stable nomenclature and a perfect identification are required previously. The beginning of the new bacterial systematics era can be remembered by the introduction and application of new taxonomic concepts and techniques, from the 50s and 60s. Important progress were achieved using numerical taxonomy and molecular taxonomy. Molecular taxonomy, brought into effect after the emergence of the Molecular Biology resources, provided knowledge that comprises systematics of bacteria, in which occurs great evolutionary interest, or where is observed the necessity of eliminating any environmental interference. When you study the composition and disposition of nucleotides in certain portions of the genetic material, you study searching their genome, much less susceptible to environmental alterations than proteins, codified based on it. In the molecular taxonomy, you can research both DNA and RNA, and the main techniques that have been used in the systematics comprise the build of restriction maps, DNA-DNA hybridization, DNA-RNA hybridization, sequencing of DNA sequencing of sub-units 16S and 23S of rRNA, RAPD, RFLP, PFGE etc. Techniques such as base sequencing, though they are extremely sensible and greatly precise, are relatively onerous and impracticable to the great majority of the bacterial taxonomy laboratories. Several specialized techniques have been applied to taxonomic studies of microorganisms. In the last years, these have included preliminary electrophoretic analysis of soluble proteins and isoenzymes, and subsequently determination of deoxyribonucleic acid base composition and assessment of base sequence homology by means of DNA-RNA hybrid experiments beside others. These various techniques, as expected, have generally indicated a lack of taxonomic information in microbial systematics. There are numberless techniques and methodologies that make bacteria identification and classification study possible, part of them described here, allowing establish different degrees of subspecific and interspecific similarity through phenetic-genetic polymorphism analysis. However, was pointed out the necessity of using more than one technique for better establish similarity degrees within microorganisms. Obtaining data resulting from application of a sole technique isolatedly may not provide significant information from Bacterial Systematics viewpoint
Resumo:
The current study aimed to compare the shoulder kinematics (3D scapular orientation, scapular angular displacement and scapulohumeral rhythm) of asymptomatic participants under unloaded and loaded conditions during unilateral shoulder elevation in the scapular plane. We used a repeated-measures design with a convenience sample. Eleven male participants with an age range of 21–28 years with no recent history of shoulder injury participated in the study. The participants performed isometric shoulder elevation from a neutral position to approximately 150 degrees of elevation in the scapular plane in intervals of approximately 30 degrees during unloaded and loaded conditions. Shoulder kinematic data were obtained with videogrammetry. During shoulder elevation, the scapula rotated upwardly and externally, and tilted posteriorly. The addition of an external load did not affect 3D scapular orientation, scapular angular displacement, or scapulohumeral rhythm throughout shoulder elevation (P > .05). In clinical practice, clinicians should expect to observe upward and external rotation and posterior tilt of the scapula during their assessments of shoulder elevation. Such behavior was not influenced by an external load normalized to 5% of body weight when performed in an asymptomatic population.
Resumo:
Some of the properties sought in seismic design of buildings are also considered fundamental to guarantee structural robustness. Moreover, some key concepts are common to both seismic and robustness design. In fact, both analyses consider events with a very small probability of occurrence, and consequently, a significant level of damage is admissible. As very rare events,in both cases, the actions are extremely hard to quantify. The acceptance of limited damage requires a system based analysis of structures, rather than an element by element methodology, as employed for other load cases. As for robustness analysis, in seismic design the main objective is to guarantee that the structure survives an earthquake, without extensive damage. In the case of seismic design, this is achieved by guaranteeing the dissipation of energy through plastic hinges distributed in the structure. For this to be possible, some key properties must be assured, in particular ductility and redundancy. The same properties could be fundamental in robustness design, as a structure can only sustain significant damage if capable of distributing stresses to parts of the structure unaffected by the triggering event. Timber is often used for primary load‐bearing elements in single storey long‐span structures for public buildings and arenas, where severe consequences can be expected if one or more of the primary load bearing elements fail. The structural system used for these structures consists of main frames, secondary elements and bracing elements. The main frame, composed by columns and beams, can be seen as key elements in the system and should be designed with high safety against failure and under strict quality control. The main frames may sometimes be designed with moment resisting joints between columns and beams. Scenarios, where one or more of these key elements, fail should be considered at least for high consequence buildings. Two alternative strategies may be applied: isolation of collapsing sections and, provision of alternate load paths [1]. The first one is relatively straightforward to provide by deliberately designing the secondary structural system less strong and stiff. Alternatively, the secondary structural system and the bracing system can be design so that loss of capacity in the main frame does not lead to the collapse. A case study has been selected aiming to assess the consequences of these two different strategies, in particular, under seismic loads.
Resumo:
A aplicação do material compósito é neste momento bastante vasta, graças à combinação das suas características específicas, tais como, maior resistência específica e módulos específicos e melhor resistência à fadiga, quando comparados com os metais convencionais. Tais características, quando requeridas, tornam este material ideal para aplicações estruturais. Esta caminhada de sucesso iniciou desde muito cedo, quando o material compósito já era utilizado para fabrico de armas pelos mongóis e na construção civil pelos hebreus e egípcios, contudo, só a partir dos meados do século XX é que despertou interesses para aplicações mais modernas. Atualmente os materiais compósitos são utilizados em equipamentos domésticos, componentes elétricos e eletrónicos, passando por materiais desportivos, pela indústria automóvel e construção civil, até indústrias de grande exigência e visibilidade tecnológica como a aeronáutica, espacial e de defesa. Apesar das boas características apresentadas pelos materiais compósitos, no entanto, estes materiais têm tendência a perderem as suas propriedades quando submetidas a algumas operações de acabamento como a furação. A furação surge da necessidade de ligação de peças de um mesmo mecanismo. Os furos obtidos por este processo devem ser precisos e sem danos para garantir ligações de alta resistência e também precisas. A furação nos materiais compósitos é bastante complexa devido à sua heterogeneidade, anisotropia, sensibilidade ao calor e pelo facto de os reforços serem extremamente abrasivos. A operação de furação pode causar grandes danos na peça, como a delaminação a entrada, defeitos de circularidade do furo, danos de origem térmica e a delaminação à saída que se apresenta como o mais frequente e indesejável. Com base nesses pressupostos é que este trabalho foi desenvolvido de forma a tentar obter processos simples para determinação e previsão de danos em polímeros reforçados com fibras (de carbono neste caso) de forma a precavê-los. De forma a conseguir estes objetivos, foram realizados ensaios de início de delaminação segundo a proposta de Lachaud et al. e ensaios de pin-bearing segundo a proposta de Khashaba et al. Foram também examinadas extensões de danos de acordo com o modelo de Fator de delaminação ajustado apresentado por Davim et al. A partir dos ensaios, de pin-bearing, realizados foram analisadas influências do material e geometria da broca, do avanço utilizado na furação e de diferentes orientações de empilhamentos de placas na delaminação de laminados compósitos e ainda a influências dessas variáveis na força de rutura por pin-bearing. As principais conclusões tiradas daqui são que a delaminação aumenta com o aumento do avanço, o que já era esperado, as brocas em carboneto de tungsténio são as mais recomendas para a furação do material em causa e que a delaminação é superior para a placa cross-ply quando comparada com placas unidirecionais. Para a situação de ensaios de início de delaminação foram analisadas as influências da variação da espessura não cortada por baixo da broca/punção, de diferentes geometrias de brocas, da alteração de velocidade de ensaio e diferentes orientações de empilhamentos de placas na força de início de delaminação. Deste ensaio as principais conclusões são que a força de início de delaminação aumenta com o aumenta da espessura não cortada e a influência da velocidade de ensaio altera com a variação das orientações de empilhamento.
Resumo:
Structure and Infrastructure Engineering, 1-17
Resumo:
Dissertation submitted in partial fulfillment of the requirements for degree of Master in Statistics and Information Management.
Resumo:
The analysis of 58 patients with chronic hepatitis C without cirrhosis and treated with interferon-alpha demonstrated that hepatitis C viral (HCV) load does not correlate with the histological evolution of the disease (p = 0.6559 for architectural alterations and p = 0.6271 for the histological activity index). Therefore, the use of viral RNA quantification as an evolutive predictor or determinant of the severity of hepatitis C is incorrect and of relative value. A review of the literature provided fundamental and interdependent HCV (genotype, heterogeneity and mutants, specific proteins), host (sex, age, weight, etc) and treatment variables (dosage, time of treatment, type of interferon) within the broader context of viral kinetics, interferon-mediated immunological response (in addition to natural immunity against HCV) and the role of interferon as a modulator of fibrogenesis. Therefore, viral load implies much more than numbers and the correct interpretation of these data should consider a broader context depending on multiple factors that are more complex than the simple value obtained upon quantification.
Resumo:
Para o projeto de qualquer estrutura existente (edifícios, pontes, veículos, máquinas, etc.) é necessário conhecer as condições de carga, geometria e comportamento de todas as suas partes, assim como respeitar as normativas em vigor nos países nos quais a estrutura será aplicada. A primeira parte de qualquer projeto nesta área passa pela fase da análise estrutural, onde são calculadas todas as interações e efeitos de cargas sobre as estruturas físicas e os seus componentes de maneira a verificar a aptidão da estrutura para o seu uso. Inicialmente parte-se de uma estrutura de geometria simplificada, pondo de parte os elementos físicos irrelevantes (elementos de fixação, revestimentos, etc.) de maneira a simplificar o cálculo de estruturas complexas e, em função dos resultados obtidos da análise estrutural, melhorar a estrutura se necessário. A análise por elementos finitos é a ferramenta principal durante esta primeira fase do projeto. E atualmente, devido às exigências do mercado, é imprescindível o suporte computorizado de maneira a agilizar esta fase do projeto. Existe para esta finalidade uma vasta gama de programas que permitem realizar tarefas que passam pelo desenho de estruturas, análise estática de cargas, análise dinâmica e vibrações, visualização do comportamento físico (deformações) em tempo real, que permitem a otimização da estrutura em análise. Porém, estes programas demostram uma certa complexidade durante a introdução dos parâmetros, levando muitas vezes a resultados errados. Assim sendo, é essencial para o projetista ter uma ferramenta fiável e simples de usar que possa ser usada para fins de projeto de estruturas e otimização. Sobre esta base nasce este projeto tese onde se elaborou um programa com interface gráfica no ambiente Matlab® para a análise de estruturas por elementos finitos, com elementos do tipo Barra e Viga, quer em 2D ou 3D. Este programa permite definir a estrutura por meio de coordenadas, introdução de forma rápida e clara, propriedades mecânicas dos elementos, condições fronteira e cargas a aplicar. Como resultados devolve ao utilizador as reações, deformações e distribuição de tensões nos elementos quer em forma tabular quer em representação gráfica sobre a estrutura em análise. Existe ainda a possibilidade de importação de dados e exportação dos resultados em ficheiros XLS e XLSX, de maneira a facilitar a gestão de informação. Foram realizados diferentes testes e análises de estruturas de forma a validar os resultados do programa e a sua integridade. Os resultados foram todos satisfatórios e convergem para os resultados de outros programas, publicados em livros, e para cálculo a mão feitos pelo autor.
Resumo:
Ergonomic interventions such as increased scheduled breaks or job rotation have been proposed to reduce upper limb muscle fatigue in repetitive low-load work. This review was performed to summarize and analyze the studies investigating the effect of job rotation and work-rest schemes, as well as, work pace, cycle time and duty cycle, on upper limb muscle fatigue. The effects of these work organization factors on subjective fatigue or discomfort were also analyzed. This review was based on relevant articles published in PubMed, Scopus and Web of Science. The studies included in this review were performed in humans and assessed muscle fatigue in upper limbs. 14 articles were included in the systematic review. Few studies were performed in a real work environment and the most common methods used to assess muscle fatigue were surface electromyography (EMG). No consistent results were found related to the effects of job rotation on muscle activity and subjective measurements of fatigue. Rest breaks had some positive effects, particularly in perceived discomfort. The increase in work pace reveals a higher muscular load in specific muscles. The duration of experiments and characteristics of participants appear to be the factors that most have influenced the results. Future research should be focused on the improvement of the experimental protocols and instrumentation, in order to the outcomes represent adequately the actual working conditions. Relevance to industry: Introducing more physical workload variation in low-load repetitive work is considered an effective ergonomic intervention against muscle fatigue and musculoskeletal disorders in industry. Results will be useful to identify the need of future research, which will eventually lead to the adoption of best industrial work practices according to the workers capabilities.
Resumo:
Biosensors have opened new horizons in biomedical analysis, by ensuring increased assay speed and flexibility, and allowing point-of-care applications, multi-target analyses, automation and reduced costs of testing. This has been a result of many studies merging nanotechnology with biochemistry over the years, thereby enabling the creation of more suitable environments to biological receptors and their substitution by synthetic analogue materials. Sol-gel chemistry, among other materials, is deeply involved in this process. Sol-gel processing allows the immobilization of organic molecules, biomacromolecules and cells maintaining their properties and activities, permitting their integration into different transduction devices, of electrochemical or optical nature, for single or multiple analyses. Sol-gel also allows to the production of synthetic materials mimicking the activity of natural receptors, while bringing advantages, mostly in terms of cost and stability. Moreover, the biocompatibility of sol-gel materials structures of biological nature allowed the use of these materials in emerging in vivo applications. In this chapter, biosensors for biomedical applications based on sol-gel derived composites are presented, compared and described, along with current emerging applications in vivo, concerning drug delivery or biomaterials. Sol-gel materials are shown as a promising tool for current, emerging and future medical applications. - See more at: http://www.eurekaselect.com/127191/article#sthash.iPqqyhox.dpuf
Resumo:
This article presents a framework to an Industrial Engineering and Management Science course from School of Management and Industrial Studies using Autonomous Ground Vehicles (AGV) to supply materials to a production line as an experimental setup for the students to acquire knowledge in the production robotics area. The students must be capable to understand and put into good use several concepts that will be of utmost importance in their professional life such as critical decisions regarding the study, development and implementation of a production line. The main focus is a production line using AGVs, where the students are required to address several topics such as: sensors actuators, controllers and an high level management and optimization software. The presented framework brings to the robotics teaching community methodologies that allow students from different backgrounds, that normally don’t experiment with the robotics concepts in practice due to the big gap between theory and practice, to go straight to ”making” robotics. Our aim was to suppress the minimum start point level thus allowing any student to fully experience robotics with little background knowledge.
Resumo:
Thick smears of human feces can be made adequate for identification of helminth eggs by means of refractive index matching. Although this effect can be obtained by simply spreading a fleck of feces on a microscope slide, a glycerol solution has been routinely used to this end. Aiming at practicability, a new quantitative technique has been developed. To enhance both sharpness and contrast of the images, a sucrose solution (refractive index = 1.49) is used, which reduces the effect of light-scattering particulates. To each slide a template-measured (38.5 mm³) fecal sample is transferred. Thus, egg counts and sensitivity evaluations are easily made.
Resumo:
Um dos objetivos desta dissertação de mestrado foi avaliar o impacto ambiental do processo de tingimento usado na indústria de curtumes, em termos de volume de efluente produzido e sua carga poluente. Pretendeu-se também encontrar alternativas ao nível do processo de tingimento que levem a uma melhoria na qualidade do efluente produzido. Outro objetivo deste trabalho foi avaliar o funcionamento da ETAR existente na empresa JR Fontes, no que diz respeito aos parâmetros em estudo (carência química de oxigénio - CQO, pH, crómio e teor de sólidos suspensos totais - SST), propondo alterações que permitam respeitar os valores de emissão exigidos na licença de descarga da empresa. Verificou-se que o processo de tingimento aplicado pela empresa JR Fontes é muito poluente, em termos de carga orgânica e matéria em suspensão. Este facto é comprovado pelos resultados obtidos para os três processos estudados: Montana, Galáctico e Navak. Todos os processos apresentam um efluente com pH ácido (aproximado a 3) e valores de CQO superiores a 3550 mg O2/L, sendo o processo Navak aquele que apresenta o valor mais alto para o banho composto, 8362 mg O2/L. Relativamente ao teor de crómio, o banho de recurtume com concentração mais elevada de crómio total é o banho 1 do processo Navak, com 2297 mg/L, sendo que a concentração destes banhos é sempre elevada, igual ou superior a 746 mg/L. No que diz respeito à matéria em suspensão, o processo Navak é novamente o mais poluente, com um valor de 3842 mg SST/L, não sendo obtidos nos outros processos, valores inferiores a 1205 mg SST/L. Na realização de um processo alternativo de tingimento verificou-se que é possível diminuir a carga orgânica do efluente originado. A aplicação de recurtumes sintéticos deu origem a efluentes menos poluentes. O melhor valor obtido para a CQO foi de 1113 mg O2/L, sendo obtidos valores não superiores a 7185 mg O2/L para processos de características semelhantes aos aplicados nesta indústria. Relativamente à ETAR, apesar das restrições ao funcionamento que esta apresenta, no geral pode ser considerada eficiente, embora não consiga atingir o objetivo pretendido de remoção para a CQO, ou seja o valor de 1100 mg O2/L. Nos restantes parâmetros é cumprido o limite de emissão (350 mg SST/L, pH entre 6 e 9 e 2 mg Cr/L para o crómio total): os SST apresentam o valor de 98 mg SST/L, o crómio total de 1,2 mg Cr/L e o pH encontra-se entre 8 e 9. São aqui feitas duas abordagens para solucionar os problemas existentes na ETAR. A primeira considera um ajuste no tratamento e equipamentos existentes, através da reconstrução do tanque de equalização, da substituição do coagulante por sulfato ferroso e da reconstrução do sedimentador, assim como a substituição das tubagens por umas de maior diâmetro, solucionando assim problemas de manutenção de toda a instalação e do incumprimento da legislação. A outra abordagem implica a substituição do sistema de afinação existente, os filtros de areia e carvão ativados, por um sistema de membranas de ultrafiltração ou por dois filtros de carvão ativado. Para tratar um efluente com um valor de CQO de 3000 mg O2/L com o carvão estudado, seriam necessários 132 kg de carvão por coluna, aproveitando-se os equipamentos existentes. No caso das membranas filtrantes, estas são eficazes, reduzindo a CQO em cerca de 70%. Ao contrário do carvão, a aplicação deste sistema implicaria a aquisição de novos equipamentos. Futuramente propõe-se a avaliação dos vários tipos de reagentes usados no tingimento de couro de forma a aplicar no tratamento aqueles que produzam as características desejadas no produto final e a que apresentem um menor resultado de CQO. Propõe-se também o estudo de viabilidade da remoção de crómio dos banhos de recurtume e consequente avaliação da aplicabilidade de um tratamento biológico em substituição ou como complemento do tratamento existente.
Resumo:
In this paper, we apply the following four power indices to the Portuguese Parliament: Shapley–Shubik index, Banzhaf index, Deegan–Packel index and Public Good Index. We also present the main notions related with simple games and discuss the features of each power index by means of their axiomatic characterizations.
Resumo:
In this paper, we formulate the electricity retailers’ short-term decision-making problem in a liberalized retail market as a multi-objective optimization model. Retailers with light physical assets, such as generation and storage units in the distribution network, are considered. Following advances in smart grid technologies, electricity retailers are becoming able to employ incentive-based demand response (DR) programs in addition to their physical assets to effectively manage the risks of market price and load variations. In this model, the DR scheduling is performed simultaneously with the dispatch of generation and storage units. The ultimate goal is to find the optimal values of the hourly financial incentives offered to the end-users. The proposed model considers the capacity obligations imposed on retailers by the grid operator. The profit seeking retailer also has the objective to minimize the peak demand to avoid the high capacity charges in form of grid tariffs or penalties. The non-dominated sorting genetic algorithm II (NSGA-II) is used to solve the multi-objective problem. It is a fast and elitist multi-objective evolutionary algorithm. A case study is solved to illustrate the efficient performance of the proposed methodology. Simulation results show the effectiveness of the model for designing the incentive-based DR programs and indicate the efficiency of NSGA-II in solving the retailers’ multi-objective problem.