949 resultados para user generated content


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Low-loss power transmission gears operate at lower temperature than conventional ones because their teeth geometry is optimized to reduce friction. The main objective of this work is to compare the operating stabilization temperature and efficiency of low-loss austempered ductile iron (ADI) and carburized steel gears. Three different low-loss tooth geometries were adopted (types 311, 411 and 611, all produced using standard 20° pressure angle tools) and corresponding steel and ADI gears were tested in a FZG machine. The results obtained showed that low-loss geometries had a significant influence on power loss, gears 611 generating lower power loss than gears 311. At low speeds (500 and 1000 rpm) and high torque ADI gears generated lower power loss than steel gears. However, at high speed and high torque (high input power and high stabilization temperature) steel gears had better efficiency.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJECTIVE To evaluate the impact of consuming ultra-processed foods on the micronutrient content of the Brazilian population’s diet.METHODS This cross-sectional study was performed using data on individual food consumption from a module of the 2008-2009 Brazilian Household Budget Survey. A representative sample of the Brazilian population aged 10 years or over was assessed (n = 32,898). Food consumption data were collected through two 24-hour food records. Linear regression models were used to assess the association between the nutrient content of the diet and the quintiles of ultra-processed food consumption – crude and adjusted for family incomeper capita.RESULTS Mean daily energy intake per capita was 1,866 kcal, with 69.5% coming from natural or minimally processed foods, 9.0% from processed foods and 21.5% from ultra-processed foods. For sixteen out of the seventeen evaluated micronutrients, their content was lower in the fraction of the diet composed of ultra-processed foods compared with the fraction of the diet composed of natural or minimally processed foods. The content of 10 micronutrients in ultra-processed foods did not reach half the content level observed in the natural or minimally processed foods. The higher consumption of ultra-processed foods was inversely and significantly associated with the content of vitamins B12, vitamin D, vitamin E, niacin, pyridoxine, copper, iron, phosphorus, magnesium, selenium and zinc. The reverse situation was only observed for calcium, thiamin and riboflavin.CONCLUSIONS The findings of this study highlight that reducing the consumption of ultra-processed foods is a natural way to promote healthy eating in Brazil and, therefore, is in line with the recommendations made by the Guia Alimentar para a População Brasileira (Dietary Guidelines for the Brazilian Population) to avoid these foods.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

European Master in Multimedia and Audiovisual Administration

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The aim of the present work was to characterize the internal structure of nanogratings generated inside bulk fused silica by ultrafast laser processing and to study the influence of diluted hydrofluoric acid etching on their structure. The nanogratings were inscribed at a depth of 100 mu m within fused silica wafers by a direct writing method, using 1030 nm radiation wavelength and the following processing parameters: E = 5 mu J, tau = 560 fs, f = 10 kHz, and v = 100 mu m/s. The results achieved show that the laser-affected regions are elongated ellipsoids with a typical major diameter of about 30 mu m and a minor diameter of about 6 mu m. The nanogratings within these regions are composed of alternating nanoplanes of damaged and undamaged material, with an average periodicity of 351 +/- 21 nm. The damaged nanoplanes contain nanopores randomly dispersed in a material containing a large density of defects. These nanopores present a roughly bimodal size distribution with average dimensions for each class of pores 65 +/- 20 x 16 +/- 8 x 69 +/- 16 nm(3) and 367 +/- 239 x 16 +/- 8 x 360 +/- 194 nm(3), respectively. The number and size of the nanopores increases drastically when an hydrofluoric acid treatment is performed, leading to the coalescence of these voids into large planar discontinuities parallel to the nanoplanes. The preferential etching of the damaged material by the hydrofluoric acid solution, which is responsible for the pores growth and coalescence, confirms its high defect density. (C) 2014 AIP Publishing LLC.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ABSTRACT OBJECTIVE To validate a Spanish version of the Test of Gross Motor Development (TGMD-2) for the Chilean population. METHODS Descriptive, transversal, non-experimental validity and reliability study. Four translators, three experts and 92 Chilean children, from five to 10 years, students from a primary school in Santiago, Chile, have participated. The Committee of Experts has carried out translation, back-translation and revision processes to determine the translinguistic equivalence and content validity of the test, using the content validity index in 2013. In addition, a pilot implementation was achieved to determine test reliability in Spanish, by using the intraclass correlation coefficient and Bland-Altman method. We evaluated whether the results presented significant differences by replacing the bat with a racket, using T-test. RESULTS We obtained a content validity index higher than 0.80 for language clarity and relevance of the TGMD-2 for children. There were significant differences in the object control subtest when comparing the results with bat and racket. The intraclass correlation coefficient for reliability inter-rater, intra-rater and test-retest reliability was greater than 0.80 in all cases. CONCLUSIONS The TGMD-2 has appropriate content validity to be applied in the Chilean population. The reliability of this test is within the appropriate parameters and its use could be recommended in this population after the establishment of normative data, setting a further precedent for the validation in other Latin American countries.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This article describes work performed on the assessment of the levels of airborne ultrafine particles emitted in two welding processes metal-active gas (MAG) of carbon steel and friction-stir welding (FSW) of aluminium in terms of deposited area in alveolar tract of the lung using a nanoparticle surface area monitor analyser. The obtained results showed the dependence from process parameters on emitted ultrafine particles and clearly demonstrated the presence of ultrafine particles, when compared with background levels. The obtained results showed that the process that results on the lower levels of alveolar-deposited surface area is FSW, unlike MAG. Nevertheless, all the tested processes resulted in important doses of ultrafine particles that are to be deposited in the human lung of exposed workers.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta uma proposta de sistema capaz de preencher a lacuna entre documentos legislativos em formato PDF e documentos legislativos em formato aberto. O objetivo principal é mapear o conhecimento presente nesses documentos de maneira a representar essa coleção como informação interligada. O sistema é composto por vários componentes responsáveis pela execução de três fases propostas: extração de dados, organização de conhecimento, acesso à informação. A primeira fase propõe uma abordagem à extração de estrutura, texto e entidades de documentos PDF de maneira a obter a informação desejada, de acordo com a parametrização do utilizador. Esta abordagem usa dois métodos de extração diferentes, de acordo com as duas fases de processamento de documentos – análise de documento e compreensão de documento. O critério utilizado para agrupar objetos de texto é a fonte usada nos objetos de texto de acordo com a sua definição no código de fonte (Content Stream) do PDF. A abordagem está dividida em três partes: análise de documento, compreensão de documento e conjunção. A primeira parte da abordagem trata da extração de segmentos de texto, adotando uma abordagem geométrica. O resultado é uma lista de linhas do texto do documento; a segunda parte trata de agrupar os objetos de texto de acordo com o critério estipulado, produzindo um documento XML com o resultado dessa extração; a terceira e última fase junta os resultados das duas fases anteriores e aplica regras estruturais e lógicas no sentido de obter o documento XML final. A segunda fase propõe uma ontologia no domínio legal capaz de organizar a informação extraída pelo processo de extração da primeira fase. Também é responsável pelo processo de indexação do texto dos documentos. A ontologia proposta apresenta três características: pequena, interoperável e partilhável. A primeira característica está relacionada com o facto da ontologia não estar focada na descrição pormenorizada dos conceitos presentes, propondo uma descrição mais abstrata das entidades presentes; a segunda característica é incorporada devido à necessidade de interoperabilidade com outras ontologias do domínio legal, mas também com as ontologias padrão que são utilizadas geralmente; a terceira característica é definida no sentido de permitir que o conhecimento traduzido, segundo a ontologia proposta, seja independente de vários fatores, tais como o país, a língua ou a jurisdição. A terceira fase corresponde a uma resposta à questão do acesso e reutilização do conhecimento por utilizadores externos ao sistema através do desenvolvimento dum Web Service. Este componente permite o acesso à informação através da disponibilização de um grupo de recursos disponíveis a atores externos que desejem aceder à informação. O Web Service desenvolvido utiliza a arquitetura REST. Uma aplicação móvel Android também foi desenvolvida de maneira a providenciar visualizações dos pedidos de informação. O resultado final é então o desenvolvimento de um sistema capaz de transformar coleções de documentos em formato PDF para coleções em formato aberto de maneira a permitir o acesso e reutilização por outros utilizadores. Este sistema responde diretamente às questões da comunidade de dados abertos e de Governos, que possuem muitas coleções deste tipo, para as quais não existe a capacidade de raciocinar sobre a informação contida, e transformá-la em dados que os cidadãos e os profissionais possam visualizar e utilizar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As the variety of mobile devices connected to the Internet growts there is a correponding increase in the need to deliver content tailored to their heterogeneous characteristics. At the same time, we watch to the increase of e-learning in universities through the adoption of electronic platforms and standards. Not surprisingly, the concept of mLearning (Mobile Learning) appeared in recent years decreasing the limitation of learning location with the mobility of general portable devices. However, this large number and variety of Web-enabled devices poses several challenges for Web content creators who want to automatic get the delivery context and adapt the content to the client mobile devices. In this paper we analyze several approaches to defining delivery context and present an architecture for deliver uniform mLearning content to mobile devices denominated eduMCA - Educational Mobile Content Adaptation. With the eduMCA system the Web authors will not need to create specialized pages for each kind of device, since the content is automatically transformed to adapt to any mobile device capabilities from WAP to XHTML MP-compliant devices.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents the design of a user interface for repositories of learning objects. It integrates several tasks, such as submission, browse, search, and comment/review of learning objects, on a single screen layout. This design is being implemented on the web front-end of crimsonHex, a repository of specialized learning objects, developed as part of the EduJudge, a European project that aims to bring automatic evaluation of programming problems to eLearning systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada para obtenção do Grau de Mestre em Informática, pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The main purpose of this work was the development of procedures for the simulation of atmospheric ows over complex terrain, using OpenFOAM. For this aim, tools and procedures were developed apart from this code for the preprocessing and data extraction, which were thereafter applied in the simulation of a real case. For the generation of the computational domain, a systematic method able to translate the terrain elevation model to a native OpenFOAM format (blockMeshDict) was developed. The outcome was a structured mesh, in which the user has the ability to de ne the number of control volumes and its dimensions. With this procedure, the di culties of case set up and the high computation computational e ort reported in literature associated to the use of snappyHexMesh, the OpenFOAM resource explored until then for the accomplishment of this task, were considered to be overwhelmed. Developed procedures for the generation of boundary conditions allowed for the automatic creation of idealized inlet vertical pro les, de nition of wall functions boundary conditions and the calculation of internal eld rst guesses for the iterative solution process, having as input experimental data supplied by the user. The applicability of the generated boundary conditions was limited to the simulation of turbulent, steady-state, incompressible and neutrally strati ed atmospheric ows, always recurring to RaNS (Reynolds-averaged Navier-Stokes) models. For the modelling of terrain roughness, the developed procedure allowed to the user the de nition of idealized conditions, like an uniform aerodynamic roughness length or making its value variable as a function of topography characteristic values, or the using of real site data, and it was complemented by the development of techniques for the visual inspection of generated roughness maps. The absence and the non inclusion of a forest canopy model limited the applicability of this procedure to low aerodynamic roughness lengths. The developed tools and procedures were then applied in the simulation of a neutrally strati ed atmospheric ow over the Askervein hill. In the performed simulations was evaluated the solution sensibility to di erent convection schemes, mesh dimensions, ground roughness and formulations of the k - ε and k - ω models. When compared to experimental data, calculated values showed a good agreement of speed-up in hill top and lee side, with a relative error of less than 10% at a height of 10 m above ground level. Turbulent kinetic energy was considered to be well simulated in the hill windward and hill top, and grossly predicted in the lee side, where a zone of ow separation was also identi ed. Despite the need of more work to evaluate the importance of the downstream recirculation zone in the quality of gathered results, the agreement between the calculated and experimental values and the OpenFOAM sensibility to the tested parameters were considered to be generally in line with the simulations presented in the reviewed bibliographic sources.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The content of a Learning Object is frequently characterized by metadata from several standards, such as LOM, SCORM and QTI. Specialized domains require new application profiles that further complicate the task of editing the metadata of learning object since their data models are not supported by existing authoring tools. To cope with this problem we designed a metadata editor supporting multiple metadata languages, each with its own data model. It is assumed that the supported languages have an XML binding and we use RDF to create a common metadata representation, independent from the syntax of each metadata languages. The combined data model supported by the editor is defined as an ontology. Thus, the process of extending the editor to support a new metadata language is twofold: firstly, the conversion from the XML binding of the metadata language to RDF and vice-versa; secondly, the extension of the ontology to cover the new metadata model. In this paper we describe the general architecture of the editor, we explain how a typical metadata language for learning objects is represented as an ontology, and how this formalization captures all the data required to generate the graphical user interface of the editor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O bacalhau (Gadus morhua) faz parte da dieta alimentar dos portugueses há vários séculos, sendo atualmente, um dos maiores consumidores deste peixe a nível mundial. Após o processo de salga, esta espécie possui características únicas como a consistência, cheiro, paladar e cor amarela. É precisamente devido à coloração do peixe que alguns produtores da Islândia, Noruega e Dinamarca requisitaram às autoridades da União Europeia (UE) a aprovação da utilização de polifosfatos no processo de salga húmida do bacalhau. Os polifosfatos são aditivos alimentares bastante usados no processamento do pescado pois previnem a oxidação dos lípidos e proteínas do músculo do bacalhau, evitando assim a indesejada mudança de cor do peixe. Apesar dos esforços da Associação dos Industriais do Bacalhau (AIB) e do governo português para a rejeição da proposta nórdica, tal não se verificou. Deste modo, no início do próximo ano já será possível a venda na UE de bacalhau com fosfatos. A quantificação do teor de fosfatos no bacalhau é geralmente efetuada por Espetrofotometria de absorção molecular no ultravioleta-visível (UV-Visível). Esta quantificação é baseada no método de determinação do fósforo total, através da hidrólise dos fosfatos a ortofosfatos com posterior medição da cor amarela, gerada pela reação destes com uma solução de molibdato-vanadato. O objetivo desta dissertação foi a validação de um método de análise para a quantificação dos polifosfatos no bacalhau. O método validado foi o descrito na norma NP 4495 para produtos de pesca e aquicultura. O desenvolvimento deste trabalho foi realizado em laboratório acreditado para águas e produtos alimentares (Equilibrium - Laboratório de Controlo de Qualidade e de Processos Lda, L0312). Foi ainda determinada a influência do teor de cloreto de sódio na quantificação dos polifosfatos e o teor de humidade, uma vez que este pode afetar o produto durante a sua comercialização. No processo de validação do método foram estudados diversos parâmetros, tais como a seletividade, linearidade, sensibilidade, limite de quantificação e precisão. Pela análise dos resultados obtidos conclui-se que o método para determinação de fosfatos no bacalhau se encontra validado, uma vez que satisfaz todas as especificações determinadas para cada parâmetro de validação avaliado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A dificuldade de controlo de um motor de indução, bem como o armazenamento de energia CC e posterior utilização como energia alternada promoveram o desenvolvimento de variadores de frequência e inversores. Assim, como projeto de tese de mestrado em Automação e Sistemas surge o desenvolvimento de um variador de frequência. Para elaboração do variador de frequência efetuou-se um estudo sobre as técnicas de modulação utilizadas nos inversores. A técnica escolhida e utilizada é a Sinusoidal Pulse Width Modulation (SPWM). Esta técnica baseia-se na modelação por largura de impulso (PWM), o qual é formado por comparação de um sinal de referência com um sinal de portadora de elevada frequência. Por sua vez, a topologia escolhida para o inversor corresponde a um Voltage Source Inverter (VSI) de ponte trifásica completa a três terminais. O desenvolvimento da técnica de modulação SPWM levou ao desenvolvimento de um modelo de simulação em SIMULINK, o qual permitiu retirar conclusões sobre os resultados obtidos. Na fase de implementação, foram desenvolvidas placas para o funcionamento do variador de frequência. Assim, numa fase inicial foi desenvolvida a placa de controlo, a qual contém a unidade de processamento e que é responsável pela atuação de Insulated Gate Bipolar Transistors (IGBTs). Para além disso, foi desenvolvida uma placa para proteção dos IGBTs (evitando condução simultânea no mesmo terminal) e uma placa de fontes isoladas para alimentação dos circuitos e para atuação dos IGBTs. Ainda, foi desenvolvida a técnica de SPWM em software para a unidade de controlo e finalmente foi desenvolvida uma interface gráfica para interação com o utilizador. A validação do projeto foi conseguida através da variação da velocidade do motor de indução trifásico. Para isso, este foi colocado a funcionar a diversas frequências de funcionamento e a diferentes amplitudes. Para além disso, o seu funcionamento foi também validado utilizando uma carga trifásica equilibrada de 3 lâmpadas de forma a ser visualizada a variação de frequência e variação de amplitude.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In these days the learning experience is no longer confined within the four walls of a classroom. Computers and primarily the internet have broadened this horizon by creating a way of delivering education that is known as e-learning. In the meantime, the internet, or more precisely, the Web is heading towards a new paradigm where the user is no longer just a consumer of information and becomes an active part in the communication. This two-way channel where the user takes the role of the producer of content triggered the appearance of new types of services such as Social Networks, Blogs and Wikis. To seize this second generation of communities and services, educational vendors are willing to develop e-learning systems focused on the new and emergent users needs. This paper describes the analysis and specification of an e-learning environment at our School (ESEIG) towards this new Web generation, called PEACE – Project for ESEIG Academic Environment. This new model relies on the integration of several services controlled by teachers and students such as social networks, repositories libraries, e-portfolios and e-conference sytems, intelligent tutors, recommendation systems, automatic evaluators, virtual classrooms and 3D avatars.