57 resultados para simplified geometric
em Instituto Politécnico do Porto, Portugal
Resumo:
During the last years, several studies have been made aiming to assess the out-of-plane seismic response of unreinforced stone masonry structures. This fact led to the development of a wide variety of models and approaches, ranging from simple kinematic based analytical models up to complex numerical simulations. Nevertheless, for the sake of simplicity, the out-of-plane seismic response of a masonry wall pier may be obtained by means of a simple single-degree-of-freedom system while still providing good results. In fact, despite the assumptions associated with such a simple formulation, it is also true that the epistemic uncertainty inherent with the selection of appropriate input parameters in more complex models may render them truly ineffective. In this framework, this paper focuses on the study of the out-of-plane bending of unreinforced stone masonry walls (cantilevers) by proposing a simplified analytical approach based on the construction of a linearized four-branch model, which is used to characterize the linear and nonlinear response of such structural elements through an overturning moment-rotation relationship. The formulation of the four-branch model is presented and described in detail and the meaningful parameters used for its construction are obtained from a set of experimental laboratory tests performed on six full-scale unreinforced regular sacco stone masonry specimens. Moreover, a parametric analysis aiming to evaluate the effect of these parameters’ variation on the final configuration of the model is presented and critically discussed. Finally, the results obtained from the application of the developed four-branch model on real unreinforced regular sacco stone masonry walls are thoroughly analysed and the main conclusions obtained from its application are summarized.
Resumo:
A utilização de adesivos hoje em dia encontra-se de tal forma disseminada que é transversal a diversos setores do mercado, como a indústria aeroespacial, aeronáutica, automóvel e do desporto. De facto, o uso de ligações adesivas em estruturas mecânicas tem vindo a crescer, na medida em que estes têm substituído os métodos de ligação convencionais, tais como brasagem, rebitagem, ligações aparafusadas e soldadura. No geral, as ligações adesivas apresentam diversas vantagens, desde a diminuição do peso, redução da concentração de tensões, facilidade de fabrico, bom comportamento a solicitações cíclicas e capacidade de unir materiais dissimilares. O crescente interesse da indústria nas ligações adesivas tem por base o aumento da confiabilidade nos métodos de previsão de resistência de estruturas adesivas. Neste contexto surgem os Modelos de Dano Coesivo, que permitem simular o crescimento do dano em estruturas, após introdução das leis coesivas previamente estimadas nos modelos numéricos. Uma das fases mais importantes neste método de previsão é a estimativa das leis coesivas em tração e corte, pelo que se torna de grande relevância a existência e validação de métodos precisos para a obtenção destas leis. Este trabalho visa a validação de leis coesivas em tração e corte, estimadas pela aplicação do método direto, na previsão da resistência de juntas com geometria de solicitação mista. Neste âmbito, ensaiaram-se JSS e JSD com diferentes comprimentos de sobreposição e com adesivos de diferente ductilidade. Foram considerados os adesivos Araldite® AV138, de elevada resistência e baixa ductilidade, o Araldite® 2015, de moderada ductilidade e resistência intermédia, e o SikaForce® 7752, de baixa resistência e elevada ductilidade. As leis coesivas em modo puro serviram de base para a criação de leis simplificadas triangulares, trapezoidais e linearesexponenciais, que foram testadas para cada um dos adesivos. A validação das mesmas consumou-se por comparação das previsões numéricas com os resultados experimentais. Procedeu-se também a uma análise de tensões de arrancamento e de corte no adesivo, de modo a compreender a influência das tensões na resistência das juntas. A utilização do método direto permitiu obter previsões de resistência bastante precisas, indicando as formas de leis coesivas mais adequadas para cada conjunto adesivo/geometria de junta. Para além disso, para as condições geométricas e materiais consideradas, este estudo permitiu concluir que não se cometem erros significativos na escolha de uma lei menos adequada.
Resumo:
O documento em anexo encontra-se na versão post-print (versão corrigida pelo editor).
Resumo:
Mestrado em Engenharia Química
Resumo:
Introduction: The quantification of th e differential renal function in adults can be difficult due to many factors - on e of the se is the variances in kidney depth and the attenuation related with all the tissue s between the kidney and the camera. Some authors refer that t he lower attenuation i n p ediatric patients makes unnecessary the use of attenuation correction algorithms. This study will com pare the values of differential renal function obtained with and with out attenuation correction techniques . Material and Methods: Images from a group consisting of 15 individuals (aged 3 years +/ - 2) were used and two attenuation correction method s were applied – Tonnesen correction factors and the geometric mean method . The mean time of acquisition (time post 99m Tc - DMSA administration) was 3.5 hours +/ - 0.8h. Results: T he absence of any method of attenuation correction apparently seems to lead to consistent values that seem to correlate well with the ones obtained with the incorporation of methods of attenuation correction . The differences found between the values obtained with and without attenuation correction were not significant. Conclusion: T he decision of not doing any kind of attenuation correction method can apparently be justified by the minor differences verified on the relative kidney uptake values. Nevertheless, if it is recognized that there is a need for a really accurate value of the relative kidney uptake, then an attenuation correction method should be used.
Resumo:
Introduction: Although relative uptake values aren’t the most important objective of a 99mTc-DMSA scan, they are important quantitative information. In most of the dynamic renal scintigraphies attenuation correction is essential if one wants to obtain a reliable result of the quantification process. Although in DMSA scans the absent of significant background and the lesser attenuation in pediatric patients, makes that this attenuation correction techniques are actually not applied. The geometric mean is the most common method, but that includes the acquisition of an anterior (extra) projection, which it is not acquired by a large number of NM departments. This method and the attenuation factors proposed by Tonnesen will be correlated with the absence of attenuation correction procedures. Material and Methods: Images from 20 individuals (aged 3 years +/- 2) were used and the two attenuation correction methods applied. The mean time of acquisition (time post DMSA administration) was 3.5 hours +/- 0.8h. Results: The absence of attenuation correction showed a good correlation with both attenuation methods (r=0.73 +/- 0.11) and the mean difference verified on the uptake values between the different methods were 4 +/- 3. The correlation was higher when the age was lower. The attenuation correction methods correlation was higher between them two than with the “no attenuation correction” method (r=0.82 +/- 0.8), and the mean differences of the uptake values were 2 +/- 2. Conclusion: The decision of not doing any kind of attenuation correction method can be justified by the minor differences verified on the relative kidney uptake values. Nevertheless, if it is recognized that there is a need for an accurate value of the relative kidney uptake, then an attenuation correction method should be used. Attenuation correction factors proposed by Tonnesen can be easily implemented and so become a practical and easy to implement alternative, namely when the anterior projection - needed for the geometric mean methodology – is not acquired.
Resumo:
Nos dias de hoje é necessário criar hábitos de vida mais saudáveis que contribuam para o bem-estar da população. Adoptar medidas e práticas de modo regular e disciplinado, pode diminuir o risco do aparecimento de determinadas doenças, como a obesidade, as doenças cardiovasculares, a hipertensão, a diabetes, alguns tipos de cancro e tantas outras. É também importante salientar que, uma alimentação cuidada dá saúde e aumenta a esperança média de vida. Em Portugal, nos últimos anos, os costumes alimentares da população têm vindo a alterar-se significativamente. As refeições caseiras confeccionadas com produtos frescos dão lugar à designada “cultura do fast food”. Em contrapartida, os consumidores são cada vez mais exigentes, estando em permanente alerta no que se refere ao estado dos alimentos. A rotulagem de um produto, para além da função publicitária, tem vindo a ser objecto de legislação específica de forma a fornecer informação simples e clara, correspondente à composição, qualidade, quantidade, validade ou outras características do produto. Estas informações devem ser acessíveis a qualquer tipo de público, com mais ou menos formação e de qualquer estrato social. A qualidade e segurança dos produtos deve basear-se na garantia de que todos os ingredientes, materiais de embalagem e processos produtivos são adequados à produção de produtos seguros, saudáveis e saborosos. A Silliker Portugal, S.A. é uma empresa independente de prestação de serviços para o sector agro-alimentar, líder mundial na prestação de serviços para a melhoria da qualidade e segurança alimentar. A Silliker dedica-se a ajudar as empresas a encontrar soluções para os desafios actuais do sector, oferecendo uma ampla gama de serviços, onde se inclui o serviço de análises microbiológicas, químicas e sensorial; consultadoria em segurança alimentar e desenvolvimento; auditorias; rotulagem e legislação. A actualização permanente de procedimentos na procura de uma melhoria contínua é um dos objectivos da empresa. Para responder a um dos desafios colocados à Silliker, surgiu este trabalho, que consistiu no desenvolvimento de um novo método para determinação de ácidos gordos e da gordura total em diferentes tipos de alimentos e comparação dos resultados, com os obtidos com o método analítico até então adoptado. Se a gordura é um elemento de grande importância na alimentação, devido às suas propriedades nutricionais e organoléticas, recentemente, os investigadores têm focado a sua atenção nos mais diversos ácidos gordos (saturados, monoinsaturados e polinsaturados), em particular nos ácidos gordos essenciais e nos isómeros do ácido linoleico conjugado (CLA), uma mistura de isómeros posicionais e geométricos do ácido linoleico com actividade biológica importante. A técnica usada nas determinações foi a cromatografia gasosa com ionização de chama, GC-FID, tendo as amostras sido previamente tratadas e extraídas de acordo com o tipo de matriz. A metodologia analítica desenvolvida permitiu a correcta avaliação do perfil em ácidos gordos, tendo-se para isso usado uma mistura de 37 ésteres metílicos, em que o ácido gordo C13:0 foi usado como padrão interno. A identificação baseou-se nos tempos de retenção de cada ácido gordo da mistura e para a quantificação usaram-se os factores de resposta. A validação do método implementado foi baseada nos resultados obtidos no estudo de três matrizes relativas a materiais certificados pela BIPEA (Bureau Interprofessionnel des Etudes Analytiques), para o que foram efectuadas doze réplicas de cada matriz. Para cada réplica efectuada foi calculado o teor de matéria gorda, sendo posteriormente o resultado comparado com o emitido pela entidade certificada. Após análise de cada constituinte foi também possível calcular o teor em ácidos gordos saturados, monoinsaturados e polinsaturados. A determinação do perfil em ácidos gordos dos materiais certificados foi aceitável atendendo aos valores obtidos, os quais se encontravam no intervalo de valores admissíveis indicados nos relatórios. A quantificação da matéria gorda no que se refere à matriz de “Paté à Tartinier” apresentou um z-score de 4,3, o que de acordo com as exigências internas da Silliker, não é válido. Para as outras duas matrizes (“Mélange Nutritif” e “Plat cuisiné à base de viande”) os valores de z-score foram, respectivamente, 0,7 e -1,0, o que permite concluir a validade do método. Para que o método possa vir a ser adoptado como método alternativo é necessário um estudo mais alargado relativamente a amostras com diferentes composições. O método foi aplicado na análise de amostras de fiambre, leite gordo, queijo, ovo com ómega 3, amendoim e óleo de girassol, e os resultados foram comparados com os obtidos pelo método até então adoptado.
Resumo:
A presente dissertação apresenta uma solução para o problema de modelização tridimensional de galerias subterrâneas. O trabalho desenvolvido emprega técnicas provenientes da área da robótica móvel para obtenção um sistema autónomo móvel de modelização, capaz de operar em ambientes não estruturados sem acesso a sistemas de posicionamento global, designadamente GPS. Um sistema de modelização móvel e autónomo pode ser bastante vantajoso, pois constitui um método rápido e simples de monitorização das estruturas e criação de representações virtuais das galerias com um elevado nível de detalhe. O sistema de modelização desloca-se no interior dos túneis para recolher informações sensoriais sobre a geometria da estrutura. A tarefa de organização destes dados com vista _a construção de um modelo coerente, exige um conhecimento exacto do percurso praticado pelo sistema, logo o problema de localização da plataforma sensorial tem que ser resolvido. A formulação de um sistema de localização autónoma tem que superar obstáculos que se manifestam vincadamente nos ambientes underground, tais como a monotonia estrutural e a já referida ausência de sistemas de posicionamento global. Neste contexto, foi abordado o conceito de SLAM (Simultaneous Loacalization and Mapping) para determinação da localização da plataforma sensorial em seis graus de liberdade. Seguindo a abordagem tradicional, o núcleo do algoritmo de SLAM consiste no filtro de Kalman estendido (EKF { Extended Kalman Filter ). O sistema proposto incorpora métodos avançados do estado da arte, designadamente a parametrização em profundidade inversa (Inverse Depth Parametrization) e o método de rejeição de outliers 1-Point RANSAC. A contribuição mais importante do método por nós proposto para o avanço do estado da arte foi a fusão da informação visual com a informação inercial. O algoritmo de localização foi testado com base em dados reais, adquiridos no interior de um túnel rodoviário. Os resultados obtidos permitem concluir que, ao fundir medidas inerciais com informações visuais, conseguimos evitar o fenómeno de degeneração do factor de escala, comum nas aplicações de localização através de sistemas puramente monoculares. Provámos simultaneamente que a correcção de um sistema de localização inercial através da consideração de informações visuais é eficaz, pois permite suprimir os desvios de trajectória que caracterizam os sistemas de dead reckoning. O algoritmo de modelização, com base na localização estimada, organiza no espaço tridimensional os dados geométricos adquiridos, resultando deste processo um modelo em nuvem de pontos, que posteriormente _e convertido numa malha triangular, atingindo-se assim uma representação mais realista do cenário original.
Resumo:
A navegação de veículos autónomos em ambientes não estruturados continua a ser um problema em aberto. A complexidade do mundo real ainda é um desafio. A difícil caracterização do relevo irregular, dos objectos dinâmicos e pouco distintos(e a inexistência de referências de localização) tem sido alvo de estudo e do desenvolvimento de vários métodos que permitam de uma forma eficiente, e em tempo real, modelizar o espaço tridimensional. O trabalho realizado ao longo desta dissertação insere-se na estratégia do Laboratório de Sistemas Autónomos (LSA) na pesquisa e desenvolvimento de sistemas sensoriais que possibilitem o aumento da capacidade de percepção das plataformas robóticas. O desenvolvimento de um sistema de modelização tridimensional visa acrescentar aos projectos LINCE (Land INtelligent Cooperative Explorer) e TIGRE (Terrestrial Intelligent General proposed Robot Explorer) maior autonomia e capacidade de exploração e mapeamento. Apresentamos alguns sensores utilizados para a aquisição de modelos tridimensionais, bem como alguns dos métodos mais utilizados para o processo de mapeamento, e a sua aplicação em plataformas robóticas. Ao longo desta dissertação são apresentadas e validadas técnicas que permitem a obtenção de modelos tridimensionais. É abordado o problema de analisar a cor e geometria dos objectos, e da criação de modelos realistas que os representam. Desenvolvemos um sistema que nos permite a obtenção de dados volumétricos tridimensionais, a partir de múltiplas leituras de um Laser Range Finder bidimensional de médio alcance. Aos conjuntos de dados resultantes associamos numa nuvem de pontos coerente e referenciada. Foram desenvolvidas e implementadas técnicas de segmentação que permitem inspeccionar uma nuvem de pontos e classifica-la quanto às suas características geométricas, bem como ao tipo de estruturas que representem. São apresentadas algumas técnicas para a criação de Mapas de Elevação Digital, tendo sido desenvolvida um novo método que tira partido da segmentação efectuada
Resumo:
Esta tese pretende desenvolver o estudo de um padrão que utiliza um modelo de implementação fundamentado na natureza das operações que um sistema pretende executar. Estas operações são distinguidas pelo que realizam, portanto um sistema poderá ser dividido em duas grandes áreas: uma, de leitura de dados, e outra, de manipulação de dados. A maior parte dos sistemas atuais está a progredir, com o objetivo de conseguir suportar muitos utilizadores em simultâneo, e é neste aspeto que este padrão se diferencia porque vai permitir escalar, com muita facilidade e sem sobrecarga. Além disso, este estudo deverá facultar um conjunto de boas práticas e incidir sobre o facto de se pretender desenhar um sistema de raiz e não apenas em “migrar” de um sistema já existente. Ao estudar este padrão é essencial estudar e analisar a evolução da utilização futura dos sistemas, para determinar a utilidade e a aplicação crescente ou não, deste padrão. Interessa também saber, quem implementa atualmente este padrão, em que tipo de produtos, e enaltecer o seu sucesso de implementação, estimulando o desenvolvimento da sua utilização. Finalmente, demonstra-se a aplicabilidade e validade do padrão proposto, através de uma implementação modelo, com a ajuda de uma framework de forma a determinar quais as ferramentas existentes que possam ser úteis e contribuir para a implementação deste padrão. O objetivo final será demonstrar os principais componentes do sistema, como poderá prosseguir a sua evolução e como poderá ser melhorada e simplificada a comunicação entre os seus componentes, para uma utilização mais fácil, frequente e de interesse comum para todos: utilizadores e administradores.
Resumo:
A produção de biodiesel como combustível para motores diesel, aumentou fortemente nos últimos anos e espera-se que cresça mais e mais num futuro próximo. O aumento do consumo de biodiesel exige processos de produção optimizados que permitam grandes capacidades de produção, operações simplificadas, rendimentos altos, bem como a utilização de matérias-primas mais económicas. Por isso, o desenvolvimento de processos de produção de baixo custo exige a especificação de catalisadores heterogéneos eficientes na promoção da reacção de transesterificação, permitindo a imediata separação da glicerina pura, não necessitando de uma purificação dispendiosa deste subproduto. Os xerogéis de carbono surgem então como materiais promissores para aplicação como catalisadores heterogéneos para a produção de biodiesel, devido às suas excelentes propriedades ao nível da sua textura e superfície química. Neste trabalho o principal objectivo foi a preparação de um xerogel de carbono, com o intuito de posteriormente ser aplicado na produção de biodiesel por catálise heterogénea. Amostras de xerogel de carbono foram preparadas pelo método sol-gel e oxidadas em fase líquida sendo posteriormente caracterizados os seus grupos funcionais e a sua área específica. Os resultados obtidos mostram que é possivel obter um xerogel de carbono com área superficial alta, tendo sido atingido um valor máximo para a amostra número dois (803 m2/g). Os resultados atingidos ao nível da preparação do catalisador permitem concluir que as condições de operação influenciam a estrutura final do xerogel de carbono. Quanto à caracterização da química superficial do xerogel, foi possível verificar que a diferença do número de acidez entre as amostras oxidadas e não oxidadas do mesmo lote é alta, o que permite afirmar que a oxidação do material de carbono incrementa a concentração de grupos oxigénio à superfície do xerogel. O valor máximo para o número de acidez foi obtido com a amostra número três (Amostra oxidada - 916 μmol/g, Amostra não oxidada - 207 μmol/g). Apesar de terem sido realizados ensaios para a produção de biodiesel os resultados obtidos foram nulos. A escolha das condições de reacção para a catálise heterogénea com este tipo de material poderá não ter sido a mais indicada, assim como a quantidade e o tipo de grupos funcionais introduzidos no catalisador não terem acidez suficiente para permitir uma catálise efectiva.
Resumo:
This paper analyses earthquake data in the perspective of dynamical systems and fractional calculus (FC). This new standpoint uses Multidimensional Scaling (MDS) as a powerful clustering and visualization tool. FC extends the concepts of integrals and derivatives to non-integer and complex orders. MDS is a technique that produces spatial or geometric representations of complex objects, such that those objects that are perceived to be similar in some sense are placed on the MDS maps forming clusters. In this study, over three million seismic occurrences, covering the period from January 1, 1904 up to March 14, 2012 are analysed. The events are characterized by their magnitude and spatiotemporal distributions and are divided into fifty groups, according to the Flinn–Engdahl (F–E) seismic regions of Earth. Several correlation indices are proposed to quantify the similarities among regions. MDS maps are proven as an intuitive and useful visual representation of the complex relationships that are present among seismic events, which may not be perceived on traditional geographic maps. Therefore, MDS constitutes a valid alternative to classic visualization tools for understanding the global behaviour of earthquakes.
Resumo:
A recent trend in distributed computer-controlled systems (DCCS) is to interconnect the distributed computing elements by means of multi-point broadcast networks. Since the network medium is shared between a number of network nodes, access contention exists and must be solved by a medium access control (MAC) protocol. Usually, DCCS impose real-time constraints. In essence, by real-time constraints we mean that traffic must be sent and received within a bounded interval, otherwise a timing fault is said to occur. This motivates the use of communication networks with a MAC protocol that guarantees bounded access and response times to message requests. PROFIBUS is a communication network in which the MAC protocol is based on a simplified version of the timed-token protocol. In this paper we address the cycle time properties of the PROFIBUS MAC protocol, since the knowledge of these properties is of paramount importance for guaranteeing the real-time behaviour of a distributed computer-controlled system which is supported by this type of network.
Resumo:
Fieldbus communication networks aim to interconnect sensors, actuators and controllers within distributed computer-controlled systems. Therefore, they constitute the foundation upon which real-time applications are to be implemented. A specific class of fieldbus communication networks is based on a simplified version of token-passing protocols, where each station may transfer, at most, a single message per token visit (SMTV). In this paper, we establish an analogy between non-preemptive task scheduling in single processors and the scheduling of messages on SMTV token-passing networks. Moreover, we clearly show that concepts such as blocking and interference in non-preemptive task scheduling have their counterparts in the scheduling of messages on SMTV token-passing networks. Based on this task/message scheduling analogy, we provide pre-run-time schedulability conditions for supporting real-time messages with SMTV token-passing networks. We provide both utilisation-based and response time tests to perform the pre-run-time schedulability analysis of real-time messages on SMTV token-passing networks, considering RM/DM (rate monotonic/deadline monotonic) and EDF (earliest deadline first) priority assignment schemes
Resumo:
This paper provides a comprehensive study on how to use Profibus fieldbus networks to support real-time industrial communications, that is, on how to ensure the transmission of real-time messages within a maximum bound time. Profibus is base on a simplified timed token (TT) protocol, which is a well-proved solution for real-time communication systems. However, Profibus differs with respect to the TT protocol, thus preventing the application of the usual TT protocol real-time analysis. In fact, real-time solutions for networks based on the TT protocol rely on the possibility of allocating specific bandwidth for the real-time traffic. This means that a minimum amount of time is always available, at each token visit, to transmit real-time messages, transversely, with the Profibus protocol, in the worst case, only one real-time message is processed per token visit. The authors propose two approaches to guarantee the real-time behavior of the Profibus protocol: (1) an unconstrained low-priority traffic profile; and (2) a constrained low-priority traffic profile. The proposed analysis shows that the first profile is a suitable approach for more responsive systems (tighter deadlines), while the second allows for increased nonreal-time traffic throughput