93 resultados para Métodos formais. Desenvolvimento baseado em componentes. Concorrência. Verificação de modelos
Resumo:
Introdução: A função do membro superior (MS), é uma componente fundamental para autonomia dos indivíduos, sendo essencial no movimento de alcance. Após acidente vascular encefálico (AVE), os indivíduos apresentam comprometimento deste movimento. Objetivo(s): O presente estudo teve como objetivo descrever a reorganização do controlo postural do tronco durante o movimento de alcance, em indivíduos com alterações neuromotoras decorrentes de um acidente vascular encefálico, face à aplicação de um programa de intervenção baseado nos princípios do Conceito de Bobath. Metodologia: Estudo de série de casos de indivíduos com alterações neuromotoras decorrentes de AVE, os indivíduos foram sujeitos a dois momentos de avaliação distintos o primeiro (M0) prévio ao plano de intervenção e o segundo (M1), após a implementação do plano de intervenção segundo a abordagem baseada nos princípios do Conceito de Bobath que teve a duração de 12 semanas, através do registo observacional, da utilização do Software de Avaliação Postural (SAPO) para analisar o deslocamento anterior do tronco e simetria entre tronco e cintura escapular do lado ipsilesional e contralesional. Avaliou-se também o comprometimento motor do MS através da Reach Performance Test. Resultados:. A análise do SAPO, na posição de sentado observam-se mudanças quer na vista posterior quer nas laterais, indicando uma diminuição deslocamento anterior do tronco entre M0-M1. Foi ainda possível observar que os indivíduos apresentaram uma melhor extensão linear do tronco na posição inicial em M1 comparativamente a M0. Conclusão: Os indivíduos em estudo evidenciaram um menor deslocamento anterior do tronco no movimento de alcance na posição de sentado, após uma intervenção de fisioterapia baseada nos princípios do conceito de Bobath.
Resumo:
No panorama socioeconómico atual, a contenção de despesas e o corte no financiamento de serviços secundários consumidores de recursos conduzem à reformulação de processos e métodos das instituições públicas, que procuram manter a qualidade de vida dos seus cidadãos através de programas que se mostrem mais eficientes e económicos. O crescimento sustentado das tecnologias móveis, em conjunção com o aparecimento de novos paradigmas de interação pessoa-máquina com recurso a sensores e sistemas conscientes do contexto, criaram oportunidades de negócio na área do desenvolvimento de aplicações com vertente cívica para indivíduos e empresas, sensibilizando-os para a disponibilização de serviços orientados ao cidadão. Estas oportunidades de negócio incitaram a equipa do projeto a desenvolver uma plataforma de notificação de problemas urbanos baseada no seu sistema de informação geográfico para entidades municipais. O objetivo principal desta investigação foca a idealização, conceção e implementação de uma solução completa de notificação de problemas urbanos de caráter não urgente, distinta da concorrência pela facilidade com que os cidadãos são capazes de reportar situações que condicionam o seu dia-a-dia. Para alcançar esta distinção da restante oferta, foram realizados diversos estudos para determinar características inovadoras a implementar, assim como todas as funcionalidades base expectáveis neste tipo de sistemas. Esses estudos determinaram a implementação de técnicas de demarcação manual das zonas problemáticas e reconhecimento automático do tipo de problema reportado nas imagens, ambas desenvolvidas no âmbito deste projeto. Para a correta implementação dos módulos de demarcação e reconhecimento de imagem, foram feitos levantamentos do estado da arte destas áreas, fundamentando a escolha de métodos e tecnologias a integrar no projeto. Neste contexto, serão apresentadas em detalhe as várias fases que constituíram o processo de desenvolvimento da plataforma, desde a fase de estudo e comparação de ferramentas, metodologias, e técnicas para cada um dos conceitos abordados, passando pela proposta de um modelo de resolução, até à descrição pormenorizada dos algoritmos implementados. Por último, é realizada uma avaliação de desempenho ao par algoritmo/classificador desenvolvido, através da definição de métricas que estimam o sucesso ou insucesso do classificador de objetos. A avaliação é feita com base num conjunto de imagens de teste, recolhidas manualmente em plataformas públicas de notificação de problemas, confrontando os resultados obtidos pelo algoritmo com os resultados esperados.
Resumo:
A monitorização ambiental é essencial para a tomada de decisões tanto na ciência como na indústria. Em particular, uma vez que a água é essencial à vida e a superfície da Terra é composta principalmente por água, a monitorização do clima e dos parâmetros relacionados com a água em ecossistemas sensíveis, tais como oceanos, lagoas, rios e lagos, é de extrema importância. Um dos métodos mais comuns para monitorar a água é implantar bóias. O presente trabalho está integrado num projeto mais amplo, com o objetivo de projectar e desenvolver uma bóia autónoma para a investigação científica com dois modos de funcionamento: (i) monitorização ambiental ; e (ii) baliza ativa de regata. Assim, a bóia tem duas aplicações principais: a coleta e armazenamento de dados e a assistência a regatas de veleiros autónomos. O projeto arrancou há dois anos com um grupo de quatro estudantes internacionais. Eles projetaram e construíram a estrutura física, compraram e montaram o sistema de ancoragem da bóia e escolherem a maioria dos componentes electrónicos para o sistema geral de controlo e medição. Este ano, durante o primeiro semestre, dois estudantes belgas - Jeroen Vervenne e Hendrick Verschelde – trabalharam nos subsistemas de recolha e armazenamento de dados (unidade de controlo escrava) e de telemetria e configuração (unidade de controlo mestre) assim como definiram o protocolo de comunicação da aplicação. O trabalho desta tese continua o desenvolvimento do subsistema de telemetria e configuração. Este subsistema _e responsável pela configuração do modo de funcionamento e dos sensores assim como pela comunicação com a estacão de base (controlo ambiental), barcos (baliza ativa de regata) e com o subsistema de recolha e armazenamento de dados. O desenvolvimento do subsistema de recolha e armazenamento de dados, que coleta e armazena num cartão SD os dados dos sensores selecionados, prossegue com outro estudante belga - Mathias van Flieberge. O objetivo desta tese é, por um lado, implementar o subsistema de telemetria e de configuração na unidade de controle mestre e, por outro lado, refinar e implementar, conjuntamente com Mathias van Flieberge, o protocolo de nível de aplicação projetado. Em particular, a unidade de controlo mestre deve processar e atribuir prioridades às mensagens recebidas da estacão base, solicitar dados à unidade de controlo escrava e difundir mensagens com informação de posição e condições de vento e água no modo de regata. Enquanto que a comunicação entre a unidade de controlo mestre e a estacão base e a unidade de controlo mestre e os barcos é sem fios, a unidade de controlo mestre e a unidade de controlo escrava comunicam através de uma ligação série. A bóia tem atualmente duas limitações: (i) a carga máxima é de 40 kg; e (ii) apenas pode ser utilizada em rios ou próximo da costa dada à limitação de distância imposta pela técnica de comunicação sem fios escolhida.
Resumo:
No ambiente altamente competitivo de hoje, um processo eficaz de seleção de fornecedores é muito importante para o sucesso de qualquer organização [33]. Esta dissertação procura determinar quais os critérios e métodos mais utilizados no problema da seleção de fornecedores, contribuindo assim para o apoio a entidades que pretendam iniciar uma seleção de fornecedores de uma forma mais eficaz. Para atingir os objetivos propostos, foi realizada uma análise de artigos que fazem a revisão literária dos métodos e critérios desde o ano de 1985 até ao ano 2012. Com os dados obtidos destas revisões, foi possível identificar quais os três principais métodos utilizados ao longo dos anos, sendo eles o DEA, AHP e Fuzzy set theory e os principais critérios utilizados na seleção de fornecedores. Nesta dissertação, é apresentada uma visão geral da tomada de decisão e os métodos utilizados na tomada de decisão multicritério. É abordado o problema da seleção de fornecedores, o seu processo de seleção e as revisões literárias dos métodos e critérios de seleção utilizados nos últimos anos. Por fim, é apresentada a contribuição para a seleção de fornecedores do estudo realizado durante o desenvolvimento desta dissertação, sendo apresentados e explicados os principais métodos de seleção de fornecedores, bem como os critérios utilizados.
Resumo:
Mestrado em Gestão Integrada da Qualidade, Ambiente e Segurança
Resumo:
No dia-a-dia, os organismos vivos estão sujeitos a vários tipos de agressões de origem endógena e exógena. A produção endógena exagerada de agentes oxidantes que ocorre nos processos metabólicos dos seres vivos está intimamente associada ao aparecimento e desenvolvimento de várias patologias. Por outro lado, e devido às atividades antropogénicas, muitos agentes oxidantes de origem ambiental e alimentar entram por via exógena no organismo dos seres vivos provocando igualmente danos a nível celular. De modo a protegerem-se dos efeitos pejorativos provocados por estes compostos, os organismos vivos desenvolveram mecanismos complexos de defesa antioxidante. Este trabalho consistiu no estudo eletroquímico do dano oxidativo induzido por agentes oxidantes (PAH (hidrocarbonetos aromáticos policíclicos), H2O2, NO• e HClO) e do efeito protetor, ao dano oxidativo, promovido por antioxidantes no material baseado no ADN recorrendo à utilização de um biossensor de bases púricas, adenina-EPC (elétrodo pasta de carbono) e dA20-EPC, utilizando a voltametria de onda quadrada (VOQ) como técnica de deteção. A aplicação da eletroquímica apresenta várias vantagens para a quantificação da capacidade antioxidante total (CAT) pois, permite a redução da quantidade de reagentes e amostra em análise, elimina a etapa de remoção de cor (a cor é um interferente nos métodos óticos) e não requer equipamentos dispendiosos. Foram seguidas diferentes abordagens para a construção dos biossensores. A primeira consistiu na construção de um adenina-EPC em três etapas: i) condicionamento do EPC, ii) eletrodeposição da adenina no EPC e iii) leitura do sinal eletroquímico. Assim, foram otimizados diversos parâmetros: concentração de adenina (150,0 mg/L), potencial de condicionamento (Ec) (+ 1,80 V), potencial de deposição (Ed) (+ 0,40 V), tempo de condicionamento (tc) (180 s) e tempo de deposição (td) (240 s). Foi aplicado o adenina-EPC no estudo do dano oxidativo provocado por PAH (benzo (g,h,i) perileno) e constatou-se que era necessário transformar o benzo (g,h,i) perileno num radical para se possível observar danos oxidativos induzidos no biossensor. A nova estratégia consistiu na construção de um dA20-EPC, através da adsorção física de uma gota de dA20 na superfície do EPC, com posterior secagem e leitura do sinal eletroquímico. Neste procedimento foi otimizada a concentração de dA20 (100,0 mg/L). O dano oxidativo provocado pelo H2O2, NO• e HClO foi estudado sobre o dA20-EPC e verificou-se que os três agentes oxidantes induziam dano oxidativo no dA20-EPC. Confirmou-se a capacidade do ácido ascórbico (AA) em proteger o dA20-EPC do dano oxidativo induzido por H2O2 e NO•. O biossensor desenvolvido (dA20-EPC) foi aplicado na avaliação da CAT de diferentes amostras reais (café, sumo de laranja e água aromatizada de laranja) usando-se como agentes oxidantes o H2O2 e NO•. Todas as amostras analisadas apresentaram ter capacidade antioxidante. Quando se utilizou o dA20-EPC na presença de H2O2, verificou-se que as amostras de café apresentam valores mais elevados de CAT (1130-1488 mg AAE/L) do que as amostras de bebidas (110 mg AAE/L em água aromatizada e 775 mg AAE/L em sumo). Os valores de CAT obtidos para amostras de sumo e água aromatizada na presença de NO• indicam que a amostra de sumo possui maior teor de CAT (871 mg AAE/L) conforme era esperado, do que a amostra de água aromatizada (172 mg AAE/L). Na presença de HClO, o valor de CAT mais elevado pertence a uma amostra de sumo (513 mg AAE/L) mas, o valor de CAT da amostra de sumo natural é muito mais baixa do que o esperado (17 mg AAE/L). Foram estudados outros antioxidantes para além do AA (ácido cumárico, ácido gálico e ácido cafeico), e constatou-se que cada um deles promove proteção ao dA20-EPC na presença de cada um dos diferentes contaminantes (H2O2, NO• e HClO).
Resumo:
A sustentabilidade do sistema energético é crucial para o desenvolvimento económico e social das sociedades presentes e futuras. Para garantir o bom funcionamento dos sistemas de energia actua-se, tipicamente, sobre a produção e sobre as redes de transporte e de distribuição. No entanto, a integração crescente de produção distribuída, principalmente nas redes de distribuição de média e de baixa tensão, a liberalização dos mercados energéticos, o desenvolvimento de mecanismos de armazenamento de energia, o desenvolvimento de sistemas automatizados de controlo de cargas e os avanços tecnológicos das infra-estruturas de comunicação impõem o desenvolvimento de novos métodos de gestão e controlo dos sistemas de energia. O contributo deste trabalho é o desenvolvimento de uma metodologia de gestão de recursos energéticos num contexto de SmartGrids, considerando uma entidade designada por VPP que gere um conjunto de instalações (unidades produtoras, consumidores e unidades de armazenamento) e, em alguns casos, tem ao seu cuidado a gestão de uma parte da rede eléctrica. Os métodos desenvolvidos contemplam a penetração intensiva de produção distribuída, o aparecimento de programas de Demand Response e o desenvolvimento de novos sistemas de armazenamento. São ainda propostos níveis de controlo e de tomada de decisão hierarquizados e geridos por entidades que actuem num ambiente de cooperação mas também de concorrência entre si. A metodologia proposta foi desenvolvida recorrendo a técnicas determinísticas, nomeadamente, à programação não linear inteira mista, tendo sido consideradas três funções objectivo distintas (custos mínimos, emissões mínimas e cortes de carga mínimos), originando, posteriormente, uma função objectivo global, o que permitiu determinar os óptimos de Pareto. São ainda determinados os valores dos custos marginais locais em cada barramento e consideradas as incertezas dos dados de entrada, nomeadamente, produção e consumo. Assim, o VPP tem ao seu dispor um conjunto de soluções que lhe permitirão tomar decisões mais fundamentadas e de acordo com o seu perfil de actuação. São apresentados dois casos de estudo. O primeiro utiliza uma rede de distribuição de 32 barramentos publicada por Baran & Wu. O segundo caso de estudo utiliza uma rede de distribuição de 114 barramentos adaptada da rede de 123 barramentos do IEEE.
Resumo:
Com um mercado automóvel cada vez mais competitivo e com os construtores automóveis à procura de atingir os zero defeitos nos seus produtos, a Bosch Car Multimédia Portugal S.A, fabricante de sistemas multimédia para o mercado automóvel, tem como objetivo a qualidade perfeita dos seus produtos. Tal perfeição exige processos de fabrico cada vez mais evoluídos e com melhores sistemas de auxílio à montagem. Nesse sentido, a incorporação de sistemas de visão artificial para verificação da montagem correta dos componentes em sistemas multimédia tem vindo a crescer largamente. Os sistemas de inspeção visual da Cognex tornaram-se o standard da Bosch para a verifi-cação da montagem de componentes por serem sistemas bastante completos, fáceis de con-figurar e com um suporte técnico bastante completo. Estes sistemas têm vindo a ser inte-grados em diversas máquinas (postos) de montagem e nunca foi desenvolvida uma ferra-menta normalizada para integração destes sistemas com as máquinas. A ideia principal deste projeto passou por desenvolver um sistema (uma aplicação informá-tica) que permita controlar os indicadores de qualidade destes sistemas de visão, garantir o seguimento dos produtos montados e, ao mesmo tempo, efetuar cópias de segurança de todo o sistema para utilização em caso de avaria ou de troca de equipamento. Tal sistema foi desenvolvido recorrendo à programação de uma Dynamic Link Library (DLL), através da linguagem VisualBasic.NET, que permite às aplicações dos equipamen-tos (máquinas) da Bosch Car Multimédia comunicarem de uma forma universal e transpa-rente com os sistemas de inspeção visual da marca Cognex. Os objetivos a que o autor se propôs no desenvolvimento deste sistema foram na sua maioria alcançados e o projeto encontra-se atualmente implementado e em execução nas linhas de produção da Bosch Car Multimédia.
Resumo:
A Salmonella é um microrganismo responsável por grande parte das doenças alimentares, podendo por em causa a saúde pública da área contaminada. Uma deteção rápida, eficiente e altamente sensível e extremamente importante, sendo um campo em franco desenvolvimento e alvo de variados e múltiplos estudos na comunidade cientifica atual. Foi desenvolvido um método potenciométrico para a deteção de Salmonellas, com elétrodos seletivos de iões, construídos em laboratório com pontas de micropipetas, fios de prata e sensores com composição otimizada. O elétrodo indicador escolhido foi um ESI seletivo a cadmio, para redução da probabilidade de interferências no método, devido a pouca abundancia do cadmio em amostras alimentares. Elétrodos seletivos a sódio, elétrodos de Ag/AgCl de simples e de dupla juncão foram também construídos e caracterizados para serem aplicados como elétrodos de referência. Adicionalmente otimizaram-se as condições operacionais para a analise potenciométrica, nomeadamente o elétrodo de referencia utilizado, condicionamento dos elétrodos, efeito do pH e volume da solução amostra. A capacidade de realizar leituras em volumes muito pequenos com limites de deteção na ordem dos micromolares por parte dos ESI de membrana polimérica, foi integrada num ensaio com um formato nao competitivo ELISA tipo sanduiche, utilizando um anticorpo primário ligado a nanopartículas de Fe@Au, permitindo a separação dos complexos anticorpo-antigénio formados dos restantes componentes em cada etapa do ensaio, pela simples aplicação de um campo magnético. O anticorpo secundário foi marcado com nanocristais de CdS, que são bastante estáveis e é fácil a transformação em Cd2+ livre, permitindo a leitura potenciométrica. Foram testadas várias concentrações de peroxido de hidrogénio e o efeito da luz para otimizar a dissolução de CdS. O método desenvolvido permitiu traçar curvas de calibração com soluções de Salmonellas incubadas em PBS (pH 4,4) em que o limite de deteção foi de 1100 CFU/mL e de 20 CFU/mL, utilizando volumes de amostra de 10 ƒÊL e 100 ƒÊL, respetivamente para o intervalo de linearidade de 10 a 108 CFU/mL. O método foi aplicado a uma amostra de leite bovino. A taxa de recuperação media obtida foi de 93,7% } 2,8 (media } desvio padrão), tendo em conta dois ensaios de recuperação efetuados (com duas replicas cada), utilizando um volume de amostra de 100 ƒÊL e concentrações de 100 e 1000 CFU/mL de Salmonella incubada.
Resumo:
Apresenta-se nesta tese uma revisão da literatura sobre a modelação de semicondutores de potência baseada na física e posterior análise de desempenho de dois métodos estocásticos, Particle Swarm Optimizaton (PSO) e Simulated Annealing (SA), quando utilizado para identificação eficiente de parâmetros de modelos de dispositivos semicondutores de potência, baseado na física. O conhecimento dos valores destes parâmetros, para cada dispositivo, é fundamental para uma simulação precisa do comportamento dinâmico do semicondutor. Os parâmetros são extraídos passo-a-passo durante simulação transiente e desempenham um papel relevante. Uma outra abordagem interessante nesta tese relaciona-se com o facto de que nos últimos anos, os métodos de modelação para dispositivos de potência têm emergido, com alta precisão e baixo tempo de execução baseado na Equação de Difusão Ambipolar (EDA) para díodos de potência e implementação no MATLAB numa estratégia de optimização formal. A equação da EDA é resolvida numericamente sob várias condições de injeções e o modelo é desenvolvido e implementado como um subcircuito no simulador IsSpice. Larguras de camada de depleção, área total do dispositivo, nível de dopagem, entre outras, são alguns dos parâmetros extraídos do modelo. Extração de parâmetros é uma parte importante de desenvolvimento de modelo. O objectivo de extração de parâmetros e otimização é determinar tais valores de parâmetros de modelo de dispositivo que minimiza as diferenças entre um conjunto de características medidas e resultados obtidos pela simulação de modelo de dispositivo. Este processo de minimização é frequentemente chamado de ajuste de características de modelos para dados de medição. O algoritmo implementado, PSO é uma técnica de heurística de otimização promissora, eficiente e recentemente proposta por Kennedy e Eberhart, baseado no comportamento social. As técnicas propostas são encontradas para serem robustas e capazes de alcançar uma solução que é caracterizada para ser precisa e global. Comparada com algoritmo SA já realizada, o desempenho da técnica proposta tem sido testado utilizando dados experimentais para extrair parâmetros de dispositivos reais das características I-V medidas. Para validar o modelo, comparação entre resultados de modelo desenvolvido com um outro modelo já desenvolvido são apresentados.
Resumo:
Hoje em dia, um dos grandes objetivos das empresas é conseguirem uma gestão eficiente. Em particular, empresas que lidam com grandes volumes de stocks têm a necessidade de otimizar as quantidades dos seus produtos armazenados, com o objetivo, de entre outros, reduzir os seus custos associados. O trabalho documentado descreve um novo modelo, desenvolvido para a gestão de encomendas de uma empresa líder em soluções de transporte. A eficiência do modelo foi alcançada com a utilização de vários métodos matemáticos de previsão. Salientam-se os métodos de Croston, Teunter e de Syntetos e Boylan adequados para artigos com procuras intermitentes e a utilização de métodos mais tradicionais, tais como médias móveis ou alisamento exponencial. Os conceitos de lead time, stock de segurança, ponto de encomenda e quantidade económica a encomendar foram explorados e serviram de suporte ao modelo desenvolvido. O stock de segurança recebeu especial atenção. Foi estabelecida uma nova fórmula de cálculo em conformidade com as necessidades reais da empresa. A eficiência do modelo foi testada com o acompanhamento da evolução do stock real. Para além de uma redução significativa do valor dos stocks armazenados, a viabilidade do modelo é reflectida pelo nível de serviço alcançado.
Resumo:
Atualmente a vantagem competitiva de uma empresa passa pela sua rápida adaptação às variações de procura do mercado, sendo necessário garantir elevados níveis de produtividade e, simultaneamente, grande flexibilidade, indispensável ao fabrico de pequenos lotes. A necessidade de ajuste do processo e a diminuição da média de vida do produto levam a paragens cada vez mais frequentes da célula de fabrico para programação e afinação, com consequentes perdas de produtividade. De forma a dar resposta a estes problemas, neste trabalho é testada a viabilidade da utilização da programação e simulação offline de tarefas de lixamento na Grohe Portugal, complementando a solução com o desenvolvimento de um novo método de afinação do programa, permitindo uma adaptação às flutuações do processo produtivo. Para isso foi necessário analisar o estado da arte dos robôs industriais na área de acabamento superficial e respetivos métodos de programação. Em seguida, após um trabalho prévio rigoroso de preparação e modelação da célula de trabalho, é possível fazer a programação offline das várias rotinas e trajetórias complexas que compõem um ciclo de lixamento de um produto, contribuindo para o aumento da qualidade do produto final sem comprometer os níveis de produtividade. Nesta dissertação são descritos e detalhados alguns dos procedimentos fulcrais no sucesso da aplicação deste método de programação. Por último é feita uma nova abordagem ao método de ajuste ponto-a-ponto convencional, desenvolvendo-se para isso um sistema de ajuste automático do programa, dotando o robô da capacidade de se adaptar às variações do processo, assegurando a consistência do mesmo. Foram realizados testes em pequena escala, extrapolando-se os resultados para a aplicação deste novo método no processo produtivo da Grohe Portugal, como forma de complemento ao método convencional de ajuste ponto-a-ponto do programa, reduzindo o tempo de paragem da célula de trabalho.
Resumo:
Este documento foi redigido no âmbito da Tese, do Mestrado em Engenharia Informática na área de Tecnologias do Conhecimento e Decisão, do Departamento de Engenharia Informática, do ISEP, cujo tema é classificação de sons cardíacos usando motifs. Neste trabalho, apresenta-se um algoritmo de classificação de sons cardíacos, capaz de identificar patologias cardíacas. A classificação do som cardíaco é um trabalho desafiante dada a dificuldade em separar os sons ambiente (vozes, respiração, contacto do microfone com superfícies como pele ou tecidos) ou de ruído dos batimentos cardíacos. Esta abordagem seguiu a metodologia de descoberta de padrões SAX (motifs) mais frequentes, em séries temporais relacionando-os com a ocorrência sistólica (S1) e a ocorrência diastólica (S2) do coração. A metodologia seguida mostrou-se eficaz a distinguir sons normais de sons correspondentes a patologia. Os resultados foram publicados na conferência internacional IDEAS’14 [Oliveira, 2014], em Julho deste ano. Numa fase seguinte, desenvolveu-se uma aplicação móvel, capaz de captar os batimentos cardíacos, de os tratar e os classificar. A classificação dos sons é feita usando o método referido no parágrafo anterior. A aplicação móvel, depois de tratar os sons, envia-os para um servidor, onde o programa de classificação é executado, e recebe a resposta da classificação. É também descrita a arquitetura aplicacional desenhada e as componentes que a constituem, as ferramentas e tecnologias utilizadas.
Resumo:
Para o projeto de qualquer estrutura existente (edifícios, pontes, veículos, máquinas, etc.) é necessário conhecer as condições de carga, geometria e comportamento de todas as suas partes, assim como respeitar as normativas em vigor nos países nos quais a estrutura será aplicada. A primeira parte de qualquer projeto nesta área passa pela fase da análise estrutural, onde são calculadas todas as interações e efeitos de cargas sobre as estruturas físicas e os seus componentes de maneira a verificar a aptidão da estrutura para o seu uso. Inicialmente parte-se de uma estrutura de geometria simplificada, pondo de parte os elementos físicos irrelevantes (elementos de fixação, revestimentos, etc.) de maneira a simplificar o cálculo de estruturas complexas e, em função dos resultados obtidos da análise estrutural, melhorar a estrutura se necessário. A análise por elementos finitos é a ferramenta principal durante esta primeira fase do projeto. E atualmente, devido às exigências do mercado, é imprescindível o suporte computorizado de maneira a agilizar esta fase do projeto. Existe para esta finalidade uma vasta gama de programas que permitem realizar tarefas que passam pelo desenho de estruturas, análise estática de cargas, análise dinâmica e vibrações, visualização do comportamento físico (deformações) em tempo real, que permitem a otimização da estrutura em análise. Porém, estes programas demostram uma certa complexidade durante a introdução dos parâmetros, levando muitas vezes a resultados errados. Assim sendo, é essencial para o projetista ter uma ferramenta fiável e simples de usar que possa ser usada para fins de projeto de estruturas e otimização. Sobre esta base nasce este projeto tese onde se elaborou um programa com interface gráfica no ambiente Matlab® para a análise de estruturas por elementos finitos, com elementos do tipo Barra e Viga, quer em 2D ou 3D. Este programa permite definir a estrutura por meio de coordenadas, introdução de forma rápida e clara, propriedades mecânicas dos elementos, condições fronteira e cargas a aplicar. Como resultados devolve ao utilizador as reações, deformações e distribuição de tensões nos elementos quer em forma tabular quer em representação gráfica sobre a estrutura em análise. Existe ainda a possibilidade de importação de dados e exportação dos resultados em ficheiros XLS e XLSX, de maneira a facilitar a gestão de informação. Foram realizados diferentes testes e análises de estruturas de forma a validar os resultados do programa e a sua integridade. Os resultados foram todos satisfatórios e convergem para os resultados de outros programas, publicados em livros, e para cálculo a mão feitos pelo autor.
Resumo:
Com a necessidade de encontrar uma forma de ligar componentes de forma mais vantajosa, surgiram as ligações adesivas. Nos últimos anos, a utilização de juntas adesivas em aplicações industriais tem vindo a aumentar, substituindo alguns métodos de ligação tradicionais, por apresentarem vantagens tais como, redução de concentração de tensões, reduzido peso e facilidade de processamento/fabrico. O seu estudo permite prever a sua resistência e durabilidade. Este trabalho refere-se ao estudo de juntas de sobreposição simples (JSS), nas quais são aplicados os adesivos comerciais que variam desde frágeis e rígidos, como o caso do Araldite® AV138, até adesivos mais dúcteis, como o Araldite® 2015 e o Sikaforce® 7888. Estes são aplicados em substratos de alumínio (AL6082-T651) em juntas com diferentes geometrias e diferentes comprimentos de sobreposição (L), sendo sujeitos a esforços de tracção. Foi feita uma análise dos valores experimentais fornecidos e uma posterior comparação destes com diferentes métodos numéricos baseados em Elementos Finitos (EF). A comparação foi feita por uma análise de Modelos de Dano Coesivo (MDC) e segundo os critérios baseados em tensões e deformações do Método de Elementos Finitos Extendido (MEFE). A utilização destes métodos numéricos capazes de simular o comportamento das juntas poderá levar a uma poupança de recursos e de tempo. A análise por MDC revelou que este método é bastante preciso, excepto para os adesivos que sejam bastante dúcteis. A aplicação de uma outra lei coesiva pode solucionar esse problema. Por sua vez a análise por MEFE demonstrou que esta técnica não é particularmente adequada para o crescimento de dano em modo misto e, comparativamente com o MDC, a sua precisão é bastante inferior.