978 resultados para Quadratic Number Field
Resumo:
O betão é o material de construção feito pelo Homem mais utilizado no mundo. A sua composição é um processo complexo que exige um conhecimento teórico sólido e muita experiência prática, pelo que poucas pessoas estão habilitadas para o fazer e são muito requisitadas. No entanto não existe muita oferta actual de software que contemple alguns dos aspectos importantes da composição do betão, nomeadamente para o contexto europeu. Nesse sentido, foi desenvolvido um sistema de apoio à decisão chamado Betacomp, baseado num sistema pericial, para realizar estudos de composição de betão. Este contempla as normas legais portuguesas e europeias, e a partir da especificação do betão apresenta toda a informação necessária para se produzir um ensaio de betão. A aquisição do conhecimento necessário ao sistema contou com a colaboração de um especialista com longa e comprovada experiência na área da formulação e produção do betão, tendo sido construída uma base de conhecimento baseada em regras de produção no formato drl (Drools Rule Language). O desenvolvimento foi realizado na plataforma Drools.net, em C# e VB.net. O Betacomp suporta os tipos de betão mais comuns, assim como adições e adjuvantes, sendo aplicável numa grande parte dos cenários de obra. Tem a funcionalidade de fornecer explicações sobre as suas decisões ao utilizador, auxiliando a perceber as conclusões atingidas e simultaneamente pode funcionar como uma ferramenta pedagógica. A sua abordagem é bastante pragmática e de certo modo inovadora, tendo em conta parâmetros novos, que habitualmente não são considerados neste tipo de software. Um deles é o nível do controlo de qualidade do produtor de betão, sendo feito um ajuste de compensação à resistência do betão a cumprir, proporcional à qualidade do produtor. No caso dos produtores de betão, permite que indiquem os constituintes que já possuem para os poderem aproveitar (caso não haja impedimentos técnicos) , uma prática muito comum e que permitirá eventualmente uma aceitação maior da aplicação, dado que reflecte a forma habitual de agir nos produtores.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Área de Especialização em Vias de Comunicação e Transportes
Resumo:
O telemóvel tem-se transformado numa ferramenta essencial no nosso dia-a-dia, constantemente são lançadas novas tecnologias que potenciam o uso do telemóvel nas tarefas do nosso quotidiano. Atualmente a grande tendência passa por fazer o download de aplicações com o objetivo de obter mais e diferentes tipos de informação, existe o desejo de ler de forma simples e intuitiva o mundo que nos rodeia, como se cada elemento fosse um objeto sobre o qual conseguiremos obter informação através do telemóvel. A tecnologia Near Field Communication (NFC) ajuda a transformar este desejo ou necessidade numa realidade de simples alcance. Podemos anexar “identificadores” nos objetos e “ver” estes identificadores através do telemóvel recorrendo a aplicações que fazem a ponte com os sistemas que nos permitem obter mais informação, por exemplo, internet. O NFC especifica um padrão de comunicação de redes sem fios, que permite a transferência de dados entre dois dispositivos separados por uma distância máxima de 10cm. NFC foi desenhado para ser integrado em telemóveis, que podem comunicar com outros telemóveis equipados com NFC ou ler informação de cartões ou tags. A dissertação avalia as oportunidades que a tecnologia NFC oferece ao mundo das telecomunicações móveis, nomeadamente na realidade do operador Vodafone Portugal, principalmente numa relação Empresa - Cliente. Esta tecnologia reúne o interesse dos fabricantes dos telemóveis, dos operadores e de parceiros críticos que vão ajudar a potenciar o negócio, nomeadamente entidades bancárias e interbancárias. A tecnologia NFC permite utilizar o telemóvel como um cartão de crédito/debito, ticketing, ler informação de posters (Smart Poster) que despoletem navegação contextualizada para outras aplicações ou para a internet para obter mais informação ou concretizar compras, estes são alguns cenários identificados que mais valor o NFC consegue oferecer. A dissertação foca-se na avaliação técnica do NFC na área de Smart Posters e resulta na identificação num conjunto de novos cenários de utilização, que são especificados e complementados com o desenvolvimento de um protótipo.
Resumo:
The Schwinger proper-time method is an effective calculation method, explicitly gauge-invariant and nonperturbative. We make use of this method to investigate the radiatively induced Lorentz- and CPT-violating effects in quantum electrodynamics when an axial-vector interaction term is introduced in the fermionic sector. The induced Lorentz- and CPT-violating Chern-Simons term coincides with the one obtained using a covariant derivative expansion but differs from the result usually obtained in other regularization schemes. A possible ambiguity in the approach is also discussed. (C) 2001 Published by Elsevier Science B.V.
Resumo:
5-Monocyclopentadienyliron(II)/ruthenium(II) complexes of the general formula [M(5-C5H5)(PP)(L1)][PF6] {M = Fe, PP = dppe; M = Ru, PP = dppe or 2PPh3; L1 = 5-[3-(thiophen-2-yl)benzo[c]thiophenyl]thiophene-2-carbonitrile} have been synthesized and studied to evaluate their molecular quadratic hyperpolarizabilities. The compounds were fully characterized by NMR, FTIR and UV/Vis spectroscopy and their electrochemical behaviour studied by cyclic voltammetry. Quadratic hyperpolarizabilities () were determined by hyper-Rayleigh scattering measurements at a fundamental wavelength of 1500 nm. Density functional theory calculations were employed to rationalize the second-order non-linear optical properties of these complexes.
Resumo:
Relatório de Estágio apresentado à Escola Superior de Educação de Lisboa para obtenção de grau de mestre em Ensino do 1.º e do 2.º Ciclo do Ensino Básico
Resumo:
Dissertação apresentada à escola Superior de Educação de Lisboa para obtenção de grau de mestre em Educação Matemática na Educação Pré-Escolar e nos 1º e 2º Ciclos do Ensino Básico
Resumo:
OBJECTIVE: To assess the prevalence of preterm birth among low birthweight babies in low and middle-income countries. METHODS: Major databases (PubMed, LILACS, Google Scholar) were searched for studies on the prevalence of term and preterm LBW babies with field work carried out after 1990 in low- and middle-income countries. Regression methods were used to model this proportion according to LBW prevalence levels. RESULTS: According to 47 studies from 27 low- and middle-income countries, approximately half of all LBW babies are preterm rather than one in three as assumed in studies previous to the 1990s. CONCLUSIONS: The estimate of a substantially higher number of LBW preterm babies has important policy implications in view of special health care needs of these infants. As for earlier projections, our findings are limited by the relative lack of population-based studies.
Resumo:
Cluster analysis for categorical data has been an active area of research. A well-known problem in this area is the determination of the number of clusters, which is unknown and must be inferred from the data. In order to estimate the number of clusters, one often resorts to information criteria, such as BIC (Bayesian information criterion), MML (minimum message length, proposed by Wallace and Boulton, 1968), and ICL (integrated classification likelihood). In this work, we adopt the approach developed by Figueiredo and Jain (2002) for clustering continuous data. They use an MML criterion to select the number of clusters and a variant of the EM algorithm to estimate the model parameters. This EM variant seamlessly integrates model estimation and selection in a single algorithm. For clustering categorical data, we assume a finite mixture of multinomial distributions and implement a new EM algorithm, following a previous version (Silvestre et al., 2008). Results obtained with synthetic datasets are encouraging. The main advantage of the proposed approach, when compared to the above referred criteria, is the speed of execution, which is especially relevant when dealing with large data sets.
Resumo:
Myocardial Perfusion Gated Single Photon Emission Tomography (Gated-SPET) imaging is used for the combined evaluation of myocardial perfusion and left ventricular (LV). The purpose of this study is to evaluate the influence of the total number of counts acquired from myocardium, in the calculation of myocardial functional parameters using routine software procedures. Methods: Gated-SPET studies were simulated using Monte Carlo GATE package and NURBS phantom. Simulated data were reconstructed and processed using the commercial software package Quantitative Gated-SPECT. The Bland-Altman and Mann-Whitney-Wilcoxon tests were used to analyze the influence of the number of total counts in the calculation of LV myocardium functional parameters. Results: In studies simulated with 3MBq in the myocardium there were significant differences in the functional parameters: Left ventricular ejection fraction (LVEF), end-systolic volume (ESV), Motility and Thickness; between studies acquired with 15s/projection and 30s/projection. Simulations with 4.2MBq show significant differences in LVEF, end-diastolic volume (EDV) and Thickness. Meanwhile in the simulations with 5.4MBq and 8.4MBq the differences were statistically significant for Motility and Thickness. Conclusion: The total number of counts per simulation doesn't significantly interfere with the determination of Gated-SPET functional parameters using the administered average activity of 450MBq to 5.4MBq in myocardium.
Resumo:
Dissertação apresentada à escola Superior de Educação de Lisboa para obtenção de grau de mestre em Educação Matemática na Educação Pré-Escolar e nos 1º e 2º Ciclos do Ensino Básico
Resumo:
Mestrado em Auditoria
Resumo:
For industrial environments it is true that Ethernet technologies are there to stay. In fact, a number of characteristics are boosting the eagerness of extending Ethernet to also cover factory-floor applications. Fullduplex links, non-blocking and priority-based switching, bandwidth availability, just to mention a few, are characteristics upon which that eagerness is building up. But, will Ethernet technologies really manage to replace traditional field bus networks? Fieldbus fundamentalists often argue that the two things are not comparable. In fact, Ethernet technology, by itself, does not include features above the lower layers of the OSI communication model. Where are the higher layers and the application enablers that permit building real industrial applications? And, taking for free that they are available, what is the impact of those protocols, mechanisms and application models on the overall performance of Ethernet-based distributed factory-floor applications?
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
The use of multicores is becoming widespread inthe field of embedded systems, many of which have real-time requirements. Hence, ensuring that real-time applications meet their timing constraints is a pre-requisite before deploying them on these systems. This necessitates the consideration of the impact of the contention due to shared lowlevel hardware resources like the front-side bus (FSB) on the Worst-CaseExecution Time (WCET) of the tasks. Towards this aim, this paper proposes a method to determine an upper bound on the number of bus requests that tasks executing on a core can generate in a given time interval. We show that our method yields tighter upper bounds in comparison with the state of-the-art. We then apply our method to compute the extra contention delay incurred by tasks, when they are co-scheduled on different cores and access the shared main memory, using a shared bus, access to which is granted using a round-robin arbitration (RR) protocol.