997 resultados para Característica de Euler
Resumo:
A análise de componentes principais é uma técnica de estatística multivariada utilizada para examinar a interdependência entre variáveis. A sua principal característica é a capacidade de reduzir dados, e tem sido usada para o desenvolvimento de instrumentos de pesquisas psiquiátricas e na classificação dos transtornos psiquiátricos. Esta técnica foi utilizada para estudar a estrutura fatorial do Questionário de Morbidade Psiquiátrica do Adulto (QMPA). O questionário foi composto de 45 questões de resposta sim/não que identificam sintomas psiquiátricos, uso de serviço e de drogas psicotrópicas. O questionário foi aplicado em 6.470 indivíduos maiores de 15 anos, em amostras representativas da população de três cidades brasileiras (Brasília, São Paulo e Porto Alegre). O estudo teve como objetivo comparar a estrutura fatorial do questionário nas três regiões urbanas brasileiras. Sete fatores foram encontrados que explicam 42,7% da variância total da amostra. O fator 1, Ansiedade/Somatização ("eigenvalue" (EV) = 3.812 e variância explicada (VE) = 10,9%); O fator 2, Irritabilidade/Depressão (EV = 2.412 e VE = 6,9%); O fator 3, Deficiência Mental (EV= 2.014 e VE = 5,8%); O fator 4, Alcoolismo (EV = 1.903 e VE = 5,4%); O fator 5, Exaltação do Humor (EV = 1.621 e VE = 4,6%); O fator 6, Transtorno de Percepção (EV = 1.599 e VE = 4,6%) e o fator 7, Tratamento (EV = 1.592 e VE = 4,5%).O QMPA apresentou estruturas fatoriais semelhantes nas três cidades. Baseados nos achados, são feitas sugestões para que algumas questões sejam modificadas e para a exclusão de outras em uma futura versão do questionário.
Resumo:
Equipamentos rotativos podem ser encarados como vigas em apoios elásticos suportando um número finito de elementos concentrados ao longo do seu comprimento. Em operação, este tipo de equipamento pode ser exposto a solicitações dinâmicas severas. Com a finalidade de evitar regimes críticos, os autores propõem um algoritmo baseado no Quociente de Rayleigh, utilizando ateoria das vigas de Bernoulli-Euler. Este algoritmo permite a determinação das soluções próprias de vigas contínuas, considerando diversas condições de fronteira e o efeito da massa concentrada e inércia de rotação dos elementos suportados. Tentando reproduzir as configurações de sistemasreais são usadas diferentes condições de fronteira na formulação da teoria das vigas de Bernoulli- Euler. Salienta-se o facto dos dados analíticos serem experimentalmente verificados através de ensaios de impacto, sendo por sua vez utilizados como entradas do algoritmo de modelação, para a identificação da rigidez torsional dos apoios. Os resultados são discutidos e comparados,sempre que apropriado, com resultados já publicados. Finalmente, o trabalho futuro é delineado.
Resumo:
O tema deste trabalho visa abordar a Construção de Edifícios Residenciais de características singulares no mercado da Construção / Imobiliário, nomeadamente no que diz respeito à garantia das características a eles implícitas. Assim, abordam-se conseitos como a diferenciação e customização na construção, a especialização da equipa de trabalho e a classificação de empreendimentos, aqui designados como Super Prime. Um empreendimento Super Prime deve permitir alcançar um modo de vida bastante particular, movido pelo gosto, pela ostentação e pelo prazer. Um produto com estas características deve ser definido pela sua qualidade, exclusividade, criatividade, marca, emoção, autenticidade, prestígio e glamour. Num sector em constante mudança, cada vez mais exigente e competitivo e altamente dependente do mercado económico, facilmente se compreende a necessidade de diferenciação na construção de imóveis e da consciencialização do consumidor para a qualidade dos produtos. No entanto, não existe nenhuma metodologia, quer a nível nacional, quer a nível internacional, que garanta este conceito de classificação de edifícios residenciais. Este facto levou à proposta de uma Metodologia de Classificação de Empreendimentos Super Prime, que se designou por MCESP, e que tem como objectivo principal a verificação do cumprimento dos requisitos técnicos implícitos a estes empreendimentos, possibilitando a sua classificação dentro desse segmento. Desta forma, identificaram-se esses requisitos técnicos, definiu-se uma hierarquia lógica de exigências a cumprir, procedeu-se à distinção qualitativa de cada característica apresentada e obteve-se uma avaliação numérica, gráfica e justificativa. De uma forma geral, a proposta deste método de classificação surge como um critério de diferenciação e de notoriedade para empreiteiros, donos de obra e promotores, aumentando a rentabilidade e competitividade de uma empresa. A sua adopção possibilita a optimização de soluções, o aumento do nível de confiança dos clientes e o aumento de prestígio das suas empresas. Procurou-se igualmente, contribuir para o avanço do conhecimento no campo da tecnologia de construção residencial Super Prime, apoiando a inovação, o desenvolvimento e a personalização, contribuindo para um melhor produto final.
Resumo:
Actualmente tem-se observado um aumento do volume de sinais de fala em diversas aplicações, que reforçam a necessidade de um processamento automático dos ficheiros. No campo do processamento automático destacam-se as aplicações de “diarização de orador”, que permitem catalogar os ficheiros de fala com a identidade de oradores e limites temporais de fala de cada um, através de um processo de segmentação e agrupamento. No contexto de agrupamento, este trabalho visa dar continuidade ao trabalho intitulado “Detecção do Orador”, com o desenvolvimento de um algoritmo de “agrupamento multi-orador” capaz de identificar e agrupar correctamente os oradores, sem conhecimento prévio do número ou da identidade dos oradores presentes no ficheiro de fala. O sistema utiliza os coeficientes “Mel Line Spectrum Frequencies” (MLSF) como característica acústica de fala, uma segmentação de fala baseada na energia e uma estrutura do tipo “Universal Background Model - Gaussian Mixture Model” (UBM-GMM) adaptado com o classificador “Support Vector Machine” (SVM). No trabalho foram analisadas três métricas de discriminação dos modelos SVM e a avaliação dos resultados foi feita através da taxa de erro “Speaker Error Rate” (SER), que quantifica percentualmente o número de segmentos “fala” mal classificados. O algoritmo implementado foi ajustado às características da língua portuguesa através de um corpus com 14 ficheiros de treino e 30 ficheiros de teste. Os ficheiros de treino dos modelos e classificação final, enquanto os ficheiros de foram utilizados para avaliar o desempenho do algoritmo. A interacção com o algoritmo foi dinamizada com a criação de uma interface gráfica que permite receber o ficheiro de teste, processá-lo, listar os resultados ou gerar um vídeo para o utilizador confrontar o sinal de fala com os resultados de classificação.
Resumo:
Sobre Alberprosenia malheiroi n. sp. deu-se a conhecer uma diagnose resumida em 1980, porém sem valor bibliográfico. Em 1987 publicou-se a mesma diagnose anexando uma foto e alguns comentários, porém sem realizar uma descrição formal. Descreve-se para esta espécie, os adultos, os estádios imaturos, determina-se a série sintípica e apresenta-se dados bionômicos e de criação em insetário. As diferenças mais evidentes com A. goyovargasi, a única espécie que se conhecia do gênero até então, são a coloração geral negra, o espaço interocular maior que o tamanho de um olho visto dorsalmente, os tubérculos do colar com o ápice agudo e o tamanho maior, na nova espécie, quase o dobro do da primeira espécie. Os ovos são pequenos, fixados ao substrato em grupos de 3 ou 4, elipsóides, não achatados lateralmente, com o opérculo proeminente, convexo, sem estruturas evidentes. As ninfas apresentam em todos os estádios caracteres típicos do gênero e da tribo, com região anteocular menos longa que a post-ocular e característica pilosidade do tegumento que vai se acentuando a cada estádio. A. malheiroi n. sp. foi capturado em ecótopos silvestres em palmeiras em floresta no Estado do Pará, associados com morcegos ou aves. Nenhum dos exemplares estava infectado com Trypanosoma cruzi. Esses triatomíneos foram mantidos em insetários a ± 25°C e ± 60% UR, são insetos ágeis e voam com relativa facilidade. Alimentaram-se bem em pombos e morcegos e não aceitaram alimentação em ratos, camundongos ou hamsters. O período de incubação dos ovos foi em média treze dias e o tempo de evolução do período ninfal foi em média cento e trinta e dois dias.
Resumo:
A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.
Resumo:
As vias de comunicação são indispensáveis para o desenvolvimento de uma nação, económica e socialmente. Num mundo globalizado, onde tudo deve chegar ao seu destino no menor espaço de tempo, as vias de comunicação assumem um papel vital. Assim, torna-se essencial construir e manter uma rede de transportes eficiente. Apesar de não ser o método mais eficiente, o transporte rodoviário é muitas vezes o mais económico e possibilita o transporte porta-a-porta, sendo em muitos casos o único meio de transporte possível. Por estas razões, o modo rodoviário tem uma quota significativa no mercado dos transportes, seja de passageiros ou mercadorias, tornando-o extremamente importante na rede de transportes de um país. Os países europeus fizeram um grande investimento na criação de extensas redes de estradas, cobrindo quase todo o seu território. Neste momento, começa-se a atingir o ponto onde a principal preocu+ação das entidades gestoras de estradas deixa de ser a construção de novas vias, passando a focar-se na necessidade de manutenção e conservação das vias existentes. Os pavimentos rodoviários, como todas as outras construções, requerem manutenção de forma a garantir bons níveis de serviço com qualidade, conforto e segurança. Devido aos custos inerentes às operações de manutenção de pavimentos, estas devem rigorosamente e com base em critérios científicos bem definidos. Assim, pretende-se evitar intervenções desnecessárias, mas também impedir que os danos se tornem irreparáveis e economicamente prejudiciais, com repercussões na segurança dos utilizadores. Para se estimar a vida útil de um pavimento é essencial realizar primeiro a caracterização estrutural do mesmo. Para isso, torna-se necessário conhecer o tipo de estrutura de um pavimento, nomeadamente a espessura e o módulo de elasticidade constituintes. A utilização de métodos de ensaio não destrutivos é cada vez mais reconhecida como uma forma eficaz para obter informações sobre o comportamento estrutural de pavimentos. Para efectuar estes ensaios, existem vários equipamentos. No entanto, dois deles, o Deflectómetro de Impacto e o Radar de Prospecção, têm demonstrado ser particularmente eficientes para avaliação da capacidade de carga de um pavimento, sendo estes equipamentos utilizados no âmbito deste estudo. Assim, para realização de ensaios de carga em pavimentos, o equipamento Deflectómetro de Impacto tem sido utilizado com sucesso para medir as deflexões à superfície de um pavimento em pontos pré-determinados quando sujeito a uma carga normalizada de forma a simular o efeito da passagem da roda de um camião. Complementarmente, para a obtenção de informações contínuas sobre a estrutura de um pavimento, o equipamento Radar de Prospecção permite conhecer o número de camadas e as suas espessuras através da utilização de ondas electromagnéticas. Os dados proporcionam, quando usados em conjunto com a realização de sondagens à rotação e poços em alguns locais, permitem uma caracterização mais precisa da condição estrutural de um pavimento e o estabelecimento de modelos de resposta, no caso de pavimentos existentes. Por outro lado, o processamento dos dados obtidos durante os ensaios “in situ” revela-se uma tarefa morosa e complexa. Actualmente, utilizando as espessuras das camadas do pavimento, os módulos de elasticidade das camadas são calculados através da “retro-análise” da bacia de deflexões medida nos ensaios de carga. Este método é iterativo, sendo que um engenheiro experiente testa várias estruturas diferentes de pavimento, até se obter uma estrutura cuja resposta seja o mais próximo possível da obtida durante os ensaios “in Situ”. Esta tarefa revela-se muito dependente da experiência do engenheiro, uma vez que as estruturas de pavimento a serem testadas maioritariamente do seu raciocínio. Outra desvantagem deste método é o facto de apresentar soluções múltiplas, dado que diferentes estruturas podem apresentar modelos de resposta iguais. A solução aceite é, muitas vezes, a que se julga mais provável, baseando-se novamente no raciocínio e experiência do engenheiro. A solução para o problema da enorme quantidade de dados a processar e das múltiplas soluções possíveis poderá ser a utilização de Redes Neuronais Artificiais (RNA) para auxiliar esta tarefa. As redes neuronais são elementos computacionais virtuais, cujo funcionamento é inspirado na forma como os sistemas nervosos biológicos, como o cérebro, processam a informação. Estes elementos são compostos por uma série de camadas, que por sua vez são compostas por neurónios. Durante a transmissão da informação entre neurónios, esta é modificada pela aplicação de um coeficiente, denominado “peso”. As redes neuronais apresentam uma habilidade muito útil, uma vez que são capazes de mapear uma função sem conhecer a sua fórmula matemática. Esta habilidade é utilizada em vários campos científicos como o reconhecimento de padrões, classificação ou compactação de dados. De forma a possibilitar o uso desta característica, a rede deverá ser devidamente “treinada” antes, processo realizado através da introdução de dois conjuntos de dados: os valores de entrada e os valores de saída pretendidos. Através de um processo cíclico de propagação da informação através das ligações entre neurónios, as redes ajustam-se gradualmente, apresentando melhores resultados. Apesar de existirem vários tipos de redes, as que aparentam ser as mais aptas para esta tarefa são as redes de retro-propagação. Estas possuem uma característica importante, nomeadamente o treino denominado “treino supervisionado”. Devido a este método de treino, as redes funcionam dentro da gama de variação dos dados fornecidos para o “treino” e, consequentemente, os resultados calculados também se encontram dentro da mesma gama, impedindo o aparecimento de soluções matemáticas com impossibilidade prática. De forma a tornar esta tarefa ainda mais simples, foi desenvolvido um programa de computador, NNPav, utilizando as RNA como parte integrante do seu processo de cálculo. O objectivo é tornar o processo de “retro-análise” totalmente automático e prevenir erros induzidos pela falta de experiência do utilizador. De forma a expandir ainda mais as funcionalidades do programa, foi implementado um processo de cálculo que realiza uma estimativa da capacidade de carga e da vida útil restante do pavimento, recorrendo a dois critérios de ruína. Estes critérios são normalmente utilizados no dimensionamento de pavimentos, de forma a prevenir o fendilhamento por fadiga e as deformações permanentes. Desta forma, o programa criado permite a estimativa da vida útil restante de um pavimento de forma eficiente, directamente a partir das deflexões e espessuras das camadas, medidas nos ensaios “in situ”. Todos os passos da caracterização estrutural do pavimento são efectuados pelo NNPav, seja recorrendo à utilização de redes neuronais ou a processos de cálculo matemático, incluindo a correcção do módulo de elasticidade da camada de misturas betuminosas para a temperatura de projecto e considerando as características de tráfego e taxas de crescimento do mesmo. Os testes efectuados às redes neuronais revelaram que foram alcançados resultados satisfatórios. Os níveis de erros na utilização de redes neuronais são semelhantes aos obtidos usando modelos de camadas linear-elásticas, excepto para o cálculo da vida útil com base num dos critérios, onde os erros obtidos foram mais altos. No entanto, este processo revela-se bastante mais rápido e possibilita o processamento dos dados por pessoal com menos experiência. Ao mesmo tempo, foi assegurado que nos ficheiros de resultados é possível analisar todos os dados calculados pelo programa, em várias fases de processamento de forma a permitir a análise detalhada dos mesmos. A possibilidade de estimar a capacidade de carga e a vida útil restante de um pavimento, contempladas no programa desenvolvido, representam também ferramentas importantes. Basicamente, o NNPav permite uma análise estrutural completa de um pavimento, estimando a sua vida útil com base nos ensaios de campo realizados pelo Deflectómetro de Impacto e pelo Radar de Prospecção, num único passo. Complementarmente, foi ainda desenvolvido e implementado no NNPav um módulo destinado ao dimensionamento de pavimentos novos. Este módulo permite que, dado um conjunto de estruturas de pavimento possíveis, seja estimada a capacidade de carga e a vida útil daquele pavimento. Este facto permite a análise de uma grande quantidade de estruturas de pavimento, e a fácil comparação dos resultados no ficheiro exportado. Apesar dos resultados obtidos neste trabalho serem bastante satisfatórios, os desenvolvimentos futuros na aplicação de Redes Neuronais na avaliação de pavimentos são ainda mais promissores. Uma vez que este trabalho foi limitado a uma moldura temporal inerente a um trabalho académico, a possibilidade de melhorar ainda mais a resposta das RNA fica em aberto. Apesar dos vários testes realizados às redes, de forma a obter as arquitecturas que apresentassem melhores resultados, as arquitecturas possíveis são virtualmente ilimitadas e pode ser uma área a aprofundar. As funcionalidades implementadas no programa foram as possíveis, dentro da moldura temporal referida, mas existem muitas funcionalidades a serem adicinadas ou expandidas, aumentando a funcionalidade do programa e a sua produtividade. Uma vez que esta é uma ferramenta que pode ser aplicada ao nível de gestão de redes rodoviárias, seria necessário estudar e desenvolver redes similares de forma a avaliar outros tipos de estruturas de pavimentos. Como conclusão final, apesar dos vários aspectos que podem, e devem ser melhorados, o programa desenvolvido provou ser uma ferramenta bastante útil e eficiente na avaliação estrutural de pavimentos com base em métodos de ensaio não destrutivos.
Resumo:
Apresenta-se um sistema computacional, denominado ICADPLUS, desenvolvido para elaboração de banco de dados, tabulação de dados, cálculo do índice CPO e análise estatística para estimação de intervalos de confiança e comparação de resultados de duas populações.Tem como objetivo apresentar método simplificado para atender necessidades de serviços de saúde na área de odontologia processando fichas utilizadas por cirurgiões dentistas em levantamentos epidemiológicos de cárie dentária. A característica principal do sistema é a dispensa de profissional especializado na área de odontologia e computação, exigindo o conhecimento mínimo de digitação por parte do usuário, pois apresenta "menus" simples e claros como também relatórios padronizados, sem possibilidade de erro. Possui opções para fichas de CPO segundo Klein e Palmer, CPO proposto pela OMS, CPOS segundo Klein, Palmer e Knutson, e ceo. A validação do sistema foi feita por comparação com outros métodos, permitindo recomendar sua adoção.
Resumo:
A necessidade que as indústrias têm, hoje em dia, de lidar com processos cada vez mais complexos, onde a quantidade de variáveis a controlar e restrições processuais a impor aumentou exponencialmente nas últimas décadas. Uma maior competitividade e eficiência, lado-a-lado com a redução de custos, proporcionou à comunidade científica e industrial explorar mais profundamente o controlo de processos, com vista à construção de técnicas avançadas para fazer face a estas exigências. O controlo preditivo baseado em modelos - MPC- engloba diversas classes de controladores que utilizam algoritmos de predição/previsão e modelos matemáticos representativos do sistema, que juntamente com restrições processuais permitem operar junto de referências e tornar o controlo mais eficiente e seguro. O sucesso do MPC nos sistemas lineares com restrições deve-se, sobretudo, ao facto de reduzir o problema de optimização a um problema de programação quadrática, de fácil implementação e resolução. Além do mais, trata-se de um tipo de controlo bastante flexível e, ao mesmo tempo, mais robusto que o controlo clássico ou convencional, já que pode lidar com processos multivariáveis sem precisar de alterações significativas na sua construção. Neste trabalho aplicam-se técnicas de controlo preditivo a processos não lineares multivariáveis. Estuda-se, ainda, o desempenho desta classe de controladores comparando-a com técnicas de controlo convencional. Nomeadamente, estuda-se um sistema de três tanques em que o caudal é manipulado através de válvulas com característica não linear. O processo é modelado através de princípios de conservação e é validado por um conjunto real de ensaios que permitiu, ainda, obter experimentalmente a característica das válvulas. O modelo validado permitiu desenvolver um controlador preditivo multivariável para controlar os níveis da instalação. Demonstra-se que os controladores preditivos apresentam grandes vantagens em relação ao controlo clássico com malhas independentes.
Resumo:
INTRODUÇÃO: Realizou-se estudo para verificar a ocorrência de indivíduos que apresentam perda auditiva por terem contraído meningite, bem como caracterizar a perda diagnosticada quanto ao tipo, ao grau e à configuração audiométrica. MATERIAL E MÉTODO: Foram levantados 949 prontuários de pacientes atendidos em um centro de distúrbios da audição, selecionados os que indicaram perda auditiva pós- meningite e realizada avaliação audiológica a que foram submetidos os pacientes. RESULTADOS E CONCLUSÃO: Os resultados indicaram 6,2% de ocorrência de perda auditiva devido à meningite. A característica dessa perda auditiva foi do tipo predominantemente neurossensorial, simétrica, linear e de grau profundo.
Resumo:
A evolução tecnológica e das sociedades permitiu que, hoje em dia, uma boa parte da população tenha acesso a dispositivos móveis com funcionalidades avançadas. Com este tipo de dispositivos, temos acesso a inúmeras fontes de informação em tempo-real, mas esta característica ainda não é, hoje em dia, aproveitada na sua totalidade. Este projecto tenta tirar partido desta realidade para, utilizando os diversos dispositivos móveis, criar uma rede de troca de informações de trânsito. O utilizador apenas necessita de servir-se do seu dispositivo móvel para, automaticamente, obter as mais recentes informações de trânsito enquanto, paralelamente, partilha com os outros utilizadores a sua informação. Apesar de existirem outras alternativas no mercado, com soluções que permitem usufruir do mesmo tipo de funcionalidades, nenhuma utiliza este tipo de dispositivos (GPS’s convencionais, por exemplo). Um dos requisitos necessário na implementação deste projecto é uma solução de geocoding. Após terem sido testadas várias soluções, nenhuma cumpria, na totalidade, os requisitos deste projecto, o que originou o desenvolvimento de uma nova solução que cumpre esses requisitos. A solução é, toda ela, muito modular, formada por vários componentes, cada um com responsabilidades bem identificadas. A arquitectura desta solução baseia-se nos padrões de desenvolvimento de uma Service Oriented Architecture. Todos os componentes disponibilizam as suas operações através de web services, e a sua descoberta recorre ao protocolo WS-Discovery. Estes vários componentes podem ser divididos em duas categorias: os do núcleo, responsáveis por criar e oferecer as funcionalidades requisitadas neste projecto e os módulos externos, nos quais se incluem as aplicações que apresentam as funcionalidades ao utilizador. Foram criadas duas formas de consumir a informação oferecida pelo serviço SIAT: a aplicação móvel e um website. No âmbito dos dispositivos móveis, foi desenvolvida uma aplicação para o sistema operativo Windows Phone 7.
Resumo:
As Doenças Lisososomais de Sobrecarga (DLS) são um grupo de mais de 50 doenças hereditárias do metabolismo, sendo a maioria causada por defeitos em enzimas lisossomais específicas. A característica distintiva das DLS é a acumulação lisossomal do(s) substrato(s) não degradado(s), bem como a acumulação de outro material secundariamente à disfunção lisossomal. A apresentação clínica destas patologias é bastante heterogénea, variando desde formas pré-natais, até apresentações infantis ou na idade adulta, sendo frequente a presença de atraso psicomotor e neurodegeneração progressiva. Neste artigo são apresentados os resultados de vários estudos de caracterização molecular efetuados ao longo da última década (2006-2016) em doentes portugueses com as seguintes DLS: Mucopolissacaridose II, Mucopolissacaridose IIIA, Mucopolissacaridose IIIB, Mucopolissacaridose IIIC, Sialidose, Galactosialidose, Gangliosidose GM1, Mucolipidose II alfa/beta, Mucolipidose III alfa/beta, Mucolipidose III gama e Doença de Unverricht-Lundborg. De um modo geral, estes trabalhos permitiram conhecer as variações genéticas associadas a estas DLS, analisar a sua distribuição na população portuguesa e compreender o seu papel na forma de apresentação clínica destas patologias.
Resumo:
Esta tese tem como principal objectivo a investigação teórica e experimental do desempenho de um sensor polarimétrico baseado num cristal líquido para medição da concentração de glicose. Recentemente uma série de sensores polarimétricos baseados em cristais líquidos foram propostos na literatura e receberam considerável interesse devido as suas características únicas. De facto, em comparação com outros moduladores electro-ópticos, o cristal líquido funciona com tensões mais baixas, tem baixo consumo de energia e maior ângulo de rotação. Além disso, este tipo de polarímetro pode ter pequenas dimensões que é uma característica interessante para dispositivos portáteis e compactos. Existem por outro lado algumas desvantagens, nomeadamente o facto do desempenho do polarímetro ser fortemente dependente do tipo de cristal líquido e da tensão a ele aplicada o que coloca desafios na escolha dos parâmetros óptimos de operação. Esta tese descreve o desenvolvimento do sensor polarimétrico, incluindo a integração dos componentes de óptica e electrónica, os algoritmos de processamento de sinal e um interface gráfico que facilita a programação de diversos parâmetros de operação e a calibração do sensor. Após a optimização dos parâmetros de operação verificou-se que o dispositivo mede a concentração da glicose em amostras com uma concentração de 8 mg/ml, com uma percentagem de erro inferior a 6% e um desvio padrão de 0,008o. Os resultados foram obtidos para uma amostra com percurso óptico de apenas 1 cm.
Resumo:
O estudo desenvolvido no presente documento teve como alvo um edifício antigo construído entre 1930 e 1940 no concelho de Coruche, com construção característica da sua época. Numa fase inicial analisou-se de que forma se comporta o edifício em termos térmicos e energéticos, com base nas metodologias de cálculo apresentadas pelo regulamento térmico em vigor (RCCTE, 2006), e de seguida foram analisadas várias soluções existentes para a reabilitação térmica e energética do edifício que poderá ser concretizada, essencialmente devido às soluções para isolamento térmico das paredes, pavimentos e cobertura, assim como devido às soluções para vidros e caixilharia dos vãos envidraçados. Numa fase posterior, foi estudada a aplicação isolada das várias soluções de reabilitação consideradas, tendo sido simulada a aplicação de várias espessuras de isolante para as soluções da envolvente opaca e vários tipos de vidro duplo e caixilharia para as soluções da envolvente envidraçada, de forma a perceber-se a implicação que cada uma tem quanto à variação das necessidades energéticas do edifício. Por fim, foram calculados os custos de aplicação das várias soluções estudadas, com auxílio de um software de orçamentação, de forma que estas possam ser comparadas em termos da relação custo/benefício, em que, o benefício de cada solução será a variação provocada nas necessidades energéticas do edifício com aplicação da mesma. Assim, procurará encontrar-se para o edifício em estudo não só as soluções mais vantajosas em termos energéticos mas também as mais rentáveis, e procurará perceber-se se um investimento numa intervenção de reabilitação deste género conduzirá a um período de retorno do investimento reduzido, que possa ser considerado aceitável.
Resumo:
Nesta dissertação pretende-se simular o comportamento dinâmico de uma laje de betão armado aplicando o Método de Elementos Finitos através da sua implementação no programa FreeFEM++. Este programa permite-nos a análise do modelo matemático tridimensional da Teoria da Elasticidade Linear, englobando a Equação de Equilíbrio, Equação de Compatibilidade e Relações Constitutivas. Tratando-se de um problema dinâmico é necessário recorrer a métodos numéricos de Integração Directa de modo a obter a resposta em termos de deslocamento ao longo do tempo. Para este trabalho escolhemos o Método de Newmark e o Método de Euler para a discretização temporal, um pela sua popularidade e o outro pela sua simplicidade de implementação. Os resultados obtidos pelo FreeFEM++ são validados através da comparação com resultados adquiridos a partir do SAP2000 e de Soluções Teóricas, quando possível.