30 resultados para Frequency characteristics


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Somatic mutations in the promoter region of telomerase reverse transcriptase (TERT) gene, mainly at positions c.-124 and c.-146 bp, are frequent in several human cancers; yet its presence in gastrointestinal stromal tumor (GIST) has not been reported to date. Herein, we searched for the presence and clinicopathological association of TERT promoter mutations in genomic DNA from 130 bona fide GISTs. We found TERT promoter mutations in 3.8% (5/130) of GISTs. The c.-124C>T mutation was the most common event, present in 2.3% (3/130), and the c.-146C>T mutation in 1.5% (2/130) of GISTs. No significant association was observed between TERT promoter mutation and patient's clinicopathological features. The present study establishes the low frequency (4%) of TERT promoter mutations in GISTs. Further studies are required to confirm our findings and to elucidate the hypothetical biological and clinical impact of TERT promoter mutation in GIST pathogenesis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os osciloscópios digitais são utilizados em diversas áreas do conhecimento, assumindo-se no âmbito da engenharia electrónica, como instrumentos indispensáveis. Graças ao advento das Field Programmable Gate Arrays (FPGAs), os instrumentos de medição reconfiguráveis, dadas as suas vantagens, i.e., altos desempenhos, baixos custos e elevada flexibilidade, são cada vez mais uma alternativa aos instrumentos tradicionalmente usados nos laboratórios. Tendo como objectivo a normalização no acesso e no controlo deste tipo de instrumentos, esta tese descreve o projecto e implementação de um osciloscópio digital reconfigurável baseado na norma IEEE 1451.0. Definido de acordo com uma arquitectura baseada nesta norma, as características do osciloscópio são descritas numa estrutura de dados denominada Transducer Electronic Data Sheet (TEDS), e o seu controlo é efectuado utilizando um conjunto de comandos normalizados. O osciloscópio implementa um conjunto de características e funcionalidades básicas, todas verificadas experimentalmente. Destas, destaca-se uma largura de banda de 575kHz, um intervalo de medição de 0.4V a 2.9V, a possibilidade de se definir um conjunto de escalas horizontais, o nível e declive de sincronismo e o modo de acoplamento com o circuito sob análise. Arquitecturalmente, o osciloscópio é constituído por um módulo especificado com a linguagem de descrição de hardware (HDL, Hardware Description Language) Verilog e por uma interface desenvolvida na linguagem de programação Java®. O módulo é embutido numa FPGA, definindo todo o processamento do osciloscópio. A interface permite o seu controlo e a representação do sinal medido. Durante o projecto foi utilizado um conversor Analógico/Digital (A/D) com uma frequência máxima de amostragem de 1.5MHz e 14 bits de resolução que, devido às suas limitações, obrigaram à implementação de um sistema de interpolação multi-estágio com filtros digitais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

According to the hedonic price method, a price of a good is related with the characteristics or the services it provides. Within this framework, the aim of this study it is to examine the effect on room rates of different characteristics of hotels in and around the city of Porto, such as star category, size, room and service quality, hotel facilities and location. It was estimated a hedonic price function, using data for 51 hotels. The results enable to identify the attributes that are important to consumers and hoteliers and to which extent. This information can be used by hotel managers to define a price strategy and helpful in new investment decisions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na ocorrência de anomalias nas redes de distribuição de energia elétrica, muitas vezes devido ao reduzido número de informação disponível, a determinação da localização dos defeitos é uma tarefa árdua e morosa. Consequentemente, impõe-se o recurso por parte das companhias elétricas a sistemas que, contribuindo para a diminuição do tempo despendido na localização dos defeitos, assegurem a redução da duração e frequência das falhas de alimentação. Esta dissertação pretende estudar os diversos sistemas de deteção de defeitos existentes, com destaque para a utilização de Indicadores de Passagem de Defeito e analisar o contributo destes sistemas para a melhoria dos Índices de Qualidade de Serviço. Abordar as dificuldades que se colocam à implementação destes sistemas, nomeadamente, pelas características específicas das redes de distribuição. Pretende, ainda, desenvolver uma metodologia e a respetiva ferramenta, que permita a deteção de defeitos baseada na utilização de Indicadores de Passagem de Defeito comunicantes, numa saída da rede de distribuição de média tensão pertencente à EDP. Analisar técnica e economicamente os benefícios a obter com a implementação da metodologia desenvolvida. Esta dissertação pretende, não só atingir os objetivos acima referidos, mas também, através deles, elaborar uma ferramenta útil para as Companhias Elétricas, no sentido de adotarem sistemas de deteção de defeitos e com fim principal de uma possível redução dos tempos de indisponibilidade de alimentação, intimamente associados à persecução de melhores índices de Qualidade de Serviço por parte das mesmas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Após o enquadramento da canoagem, como modalidade Olímpica, verificou-se um aumento significativo de estudos e pesquisas acerca da biomecânica da modalidade, o que contribuiu para uma diminuição dos tempos na competição. Contudo poucos foram os que se focaram nas forças desenvolvidas e aplicadas ao caiaque através do finca-pés, criado assim oportunidade de desenvolvimento de dispositivos para a medição das mesmas. Assim, o objectivo primordial é desenvolver um sistema experimental capaz de quantificar as forças geradas em cada um dos lados do finca-pés (esquerdo e direito). Este, deverá não só ser passível de se utilizar em caiaque ergómetro como também num caiaque de pista, permitido avaliar as forças aplicadas durante o ciclo de pagaiada, tanto em compressão como em tracção. A sua concepção baseou-se num modelo de finca-pés já existente, tornando-o compatível com os caiaques de competição mais comercializados, e permitindo que no futuro se possa utilizar na água, bastando para isso apenas possuir um caiaque e embarcar o sistema de medição. Este sistema experimental foi testado em caiaque ergómetro por 7 (sete) sujeitos com níveis distintos: seis homens (um atleta olímpico medalhado e cinco de nível nacional) e uma mulher (de nível de selecção Portuguesa) que, entre outros, realizaram um plano definido por 60s a uma frequência de 75 pagaiadas por minuto, seguido de uma intensa mudança de ritmo e força (Sprint). Após análise dos dados obtidos em cada um dos diferentes sujeitos, conseguimos identificar algumas das suas características, tais como: esforço assimétrico dos membros inferiores; utilização de forma heterogénea da fita do finca-pés; diferença de forças máximas aplicadas entre atletas (Ex.: para um atleta olímpico as forças medidas (Min; Max): Pé Esquerdo (- 444; 1087) N e Pé Direito (- 476; 1068) N); etc. Os resultados não só são bastante promissores como também são motivantes e congruentes com estudos anteriores, nomeadamente Begon et al. 2008 e Sturm 2010 e 2012. Finalmente, consegue-se afirmar, com segurança, que foram alcançados os objectivos propostos com a concepção deste dispositivo de medição de forças. Este permite caracterizar os esforços desenvolvidos no finca-pés por cada membro inferior, com ou sem a fita de suporte, possibilitando aos treinadores e atletas uma visão, para muitos desconhecida, das forças transmitidas e das suas assimetrias. No final, este conhecimento permitirá aos atletas melhorar o seu desempenho desportivo bem como facilitar a gestão desportiva, com base nos principais princípios mecânicos inerentes ao movimento dos atletas desde desporto Olímpico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Power laws, also known as Pareto-like laws or Zipf-like laws, are commonly used to explain a variety of real world distinct phenomena, often described merely by the produced signals. In this paper, we study twelve cases, namely worldwide technological accidents, the annual revenue of America׳s largest private companies, the number of inhabitants in America׳s largest cities, the magnitude of earthquakes with minimum moment magnitude equal to 4, the total burned area in forest fires occurred in Portugal, the net worth of the richer people in America, the frequency of occurrence of words in the novel Ulysses, by James Joyce, the total number of deaths in worldwide terrorist attacks, the number of linking root domains of the top internet domains, the number of linking root domains of the top internet pages, the total number of human victims of tornadoes occurred in the U.S., and the number of inhabitants in the 60 most populated countries. The results demonstrate the emergence of statistical characteristics, very close to a power law behavior. Furthermore, the parametric characterization reveals complex relationships present at higher level of description.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper we analyze the behavior of tornado time-series in the U.S. from the perspective of dynamical systems. A tornado is a violently rotating column of air extending from a cumulonimbus cloud down to the ground. Such phenomena reveal features that are well described by power law functions and unveil characteristics found in systems with long range memory effects. Tornado time series are viewed as the output of a complex system and are interpreted as a manifestation of its dynamics. Tornadoes are modeled as sequences of Dirac impulses with amplitude proportional to the events size. First, a collection of time series involving 64 years is analyzed in the frequency domain by means of the Fourier transform. The amplitude spectra are approximated by power law functions and their parameters are read as an underlying signature of the system dynamics. Second, it is adopted the concept of circular time and the collective behavior of tornadoes analyzed. Clustering techniques are then adopted to identify and visualize the emerging patterns.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Every year forest fires consume large areas, being a major concern in many countries like Australia, United States and Mediterranean Basin European Countries (e.g., Portugal, Spain, Italy and Greece). Understanding patterns of such events, in terms of size and spatiotemporal distributions, may help to take measures beforehand in view of possible hazards and decide strategies of fire prevention, detection and suppression. Traditional statistical tools have been used to study forest fires. Nevertheless, those tools might not be able to capture the main features of fires complex dynamics and to model fire behaviour [1]. Forest fires size-frequency distributions unveil long range correlations and long memory characteristics, which are typical of fractional order systems [2]. Those complex correlations are characterized by self-similarity and absence of characteristic length-scale, meaning that forest fires exhibit power-law (PL) behaviour. Forest fires have also been proved to exhibit time-clustering phenomena, with timescales of the order of few days [3]. In this paper, we study forest fires in the perspective of dynamical systems and fractional calculus (FC). Public domain forest fires catalogues, containing data of events occurred in Portugal, in the period 1980 up to 2011, are considered. The data is analysed in an annual basis, modelling the occurrences as sequences of Dirac impulses. The frequency spectra of such signals are determined using Fourier transforms, and approximated through PL trendlines. The PL parameters are then used to unveil the fractional-order dynamics characteristics of the data. To complement the analysis, correlation indices are used to compare and find possible relationships among the data. It is shown that the used approach can be useful to expose hidden patterns not captured by traditional tools.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

5th International Conference of Fire Effects on Soil Properties

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thermally expandable particles (TEPs) were developed by Dow Chemical Co in the early 1970´s [1] and were further developed by others [2, 3]. They are particles made up of a thermoplastic shell filled with liquid hydrocarbon. On heating them, two transformations will occur. One is the softening of shell material and the other is the gasification of the hydrocarbon liquid inside it. As a consequence, the shell will expand as the gas inside it will push the softened shell from inside out causing it to grow in size [4]. When fully expanded, the growth in volume of the particle can be from 50 to 100 times [3]. Owing to this unique behaviour, TEPs are used by the industry in a wide variety of applications mainly for weight reduction and appearance improvement for thermoplastics, inks, and coatings. In adhesive bonding, TEPs have been used for recycling purposes. Moreover, TEPs might be used to modify structural adhesives for other new purposes, such as: to increase the joint strength by creating an adhesive functionally modified along the overlap of the joint by gradual heating and/or to heal the adhesive in case of damage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Part of the optical clearing study in biological tissues concerns the determination of the diffusion characteristics of water and optical clearing agents in the subject tissue. Such information is sufficient to characterize the time dependence of the optical clearing mechanisms—tissue dehydration and refractive index (RI) matching. We have used a simple method based on collimated optical transmittance measurements made from muscle samples under treatment with aqueous solutions containing different concentrations of ethylene glycol (EG), to determine the diffusion time values of water and EG in skeletal muscle. By representing the estimated mean diffusion time values from each treatment as a function of agent concentration in solution, we could identify the real diffusion times for water and agent. These values allowed for the calculation of the correspondent diffusion coefficients for those fluids. With these results, we have demonstrated that the dehydration mechanism is the one that dominates optical clearing in the first minute of treatment, while the RI matching takes over the optical clearing operations after that and remains for a longer time of treatment up to about 10 min, as we could see for EG and thin tissue samples of 0.5 mm.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Collecting and transporting solid waste is a constant problem for municipalities and populations in general. Waste management should take into account the preservation of the environment and the reduction of costs. The goal with this paper is to address a real-life solid waste problem. The case reveals some general and specific characteristics which are not rare, but are not widely addressed in the literature. Furthermore, new methods and models to deal with sectorization and routing are introduced, which can be extended to other applications. Sectorization and routing are tackled following a two-phase approach. In the first phase, a new method is described for sectorization based on electromagnetism and Coulomb’s Law. The second phase addresses the routing problems in each sector. The paper addresses not only territorial division, but also the frequency with which waste is collected, which is a critical issue in these types of applications. Special characteristics related to the number and type of deposition points were also a motivation for this work. A new model for a Mixed Capacitated Arc Routing Problem with Limited Multi-Landfills is proposed and tested in real instances. The computational results achieved confirm the effectiveness of the entire approach.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Studies on microbial characterization of cold-smoked salmon and salmon trout during cold storage were performed on samples available in the Portuguese market. Samples were also classified microbiologically according to guidelines for ready-to-eat (RTE) products. Further investigations on sample variability and microbial abilities to produce tyramine and histamine were also performed. The coefficient of variation for viable counts of different groups of microorganisms of samples collected at retail market point was high in the first 2 wk of storage, mainly in the Enterobacteriaceae group and aerobic plate count (APC), suggesting that microbiological characteristics of samples were different in numbers, even within the same batch from the same producer. This variation seemed to be decreased when storage and temperature were controlled under lab conditions. The numbers of Enterobacteriaceae were influenced by storage temperature, as indicated by low microbial numbers in samples from controlled refrigeration. Lactic acid bacteria (LAB) and Enterobacteriaceae were predominant in commercial products, a significant percentage of which were tyramine and less histamine producers. These results might be influenced by (1) the technological processes in the early stages of production, (2) contamination during the smoking process, and (3) conditions and temperature fluctuations during cold storage at retail market point of sale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

For efficient planning of waste collection routing, large municipalities may be partitioned into convenient sectors. The real case under consideration is the municipality of Monção, in Portugal. Waste collection involves more than 1600 containers over an area of 220 km2 and a population of around 20,000 inhabitants. This is mostly a rural area where the population is distributed in small villages around the 33 boroughs centres (freguesia) that constitute the municipality. In most freguesias, waste collection is usually conducted 3 times a week. However, there are situations in which the same collection is done every day. The case reveals some general and specific characteristics which are not rare, but are not widely addressed in the literature. Furthermore, new methods and models to deal with sectorization and routing are introduced, which can be extended to other applications. Sectorization and routing are tackled following a three-phase approach. The first phase, which is the main concern of the presentation, introduces a new method for sectorization inspired by Electromagnetism and Coulomb’s Law. The matter is not only about territorial division, but also the frequency of waste collection, which is a critical issue in these types of applications. Special characteristics related to the number and type of deposition points were also a motivation for this work. The second phase addresses the routing problems in each sector: new Mixed Capacitated Arc Routing with Limited Multi-Landfills models will be presented. The last phase integrates Sectoring and Routing. Computational results confirm the effectiveness of the entire novel approach.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Existe um amplo consenso na literatura à volta de ideia de que a finalidade da contabilidade de gestão é apoiar a tomada de decisão e o controlo de gestão das organizações. Contudo, não existem evidências suficientes, de que a contabilidade de gestão, quando aplicada à realidade concreta de cada organização, cumpre afectivamente essa finalidade. Um dos motivos pelos quais a contabilidade de gestão pode ver-se limitada no cumprimento dos seus objetivos é a existência de uma lacuna entre a percepção do preparador da informação sobre a qualidade da informação que fornece e a percepção do receptor da informação sobre a qualidade da mesma. Assumindo que a qualidade da informação pode ser avaliada através do reconhecimento da presença das características de relevância, fiabilidade, tempestividade, frequência e compreensibilidade, esta dissertação tem como objetivo avaliar a existência de uma lacuna de percepção entre fornecedor e receptor de informação e analisar as diferentes perspetivas que determinam, ou não, a dimensão dessa lacuna. Para esse efeito foi realizado um estudo de caso comparativo de 12 Pequenas e Médias Empresas portuguesas do sector do calçado, todas situadas na mesma área geográfica. Os dados foram recolhidos através de entrevistas semi-estruturadas a preparadores e receptores de informação. Estes dados foram complementados com documentos de prestação de contas, relatórios de gestão internos, mapas de reporte interno. Dada a natureza qualitativa da maioria dos dados, foi feita uma decomposição da informação obtida das empresas e uma análise de conteúdo. Simultaneamente foi realizada uma análise quantitativa com vista em determinar a dimensão da lacuna de percepção entre preparador/receptor da informação. Os resultados revelam que não existe uma lacuna significativa quanto às percepções das características de qualidade atribuídas à informação. Os resultados sugerem ainda que a lacuna de percepção é menor quando os vários atores percepcionam o papel da contabilidade de gestão tal como é enfatizado na literatura. Este estudo contribui para a literatura na medida em que apresenta uma revisão da utilização da informação para a tomada de decisão. Ainda, contribui para os agentes da indústria terem uma melhor percepção sobre a importância do fenómeno em causa.