998 resultados para Modelos de dados de contagem


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta dissertação referem-se as potencialidades dos programas simuladores de circuitos electrónicos, as suas principais vantagens e desvantagens nas fases de projecto, desenvolvimento e teste de circuitos electrónicos. Justifica-se a escolha do programa simulador Pspice, (Programa de Simulação com ênfase em Circuitos Integrados) em detrimento de outros softwares de simulação. Desenvolve-se o studo dos dispositivos semicondutores de potência (DSP) nomeadamente, díodos de potência PIN e IGBTs utilizados no Circuito Modulador de Impulsos Genéricos de Alta Tensão (MIGAT), bem como dos seus modelos equivalentes e parâmetros principais, para implementação em simulação utilizando o programa Pspice. Propõe-se um método de determinação dos parâmetros do modelo do díodo de potência utilizando essencialmente os manuais dos fabricantes. A validade dos parâmetros determinados é aferida, recorrendo-se à análise comparativa entre os dados obtidos através do modelo Pspice do díodo e as curvas características reais do componente. Referem-se as diferentes tipologias e modos de funcionamento para o circuito MIGAT, baseados no conceito do “gerador de Marx”, recorrendo unicamente a DSP. Tendo como base o simulador Pspice, analisam-se as características relevantes de funcionamento, para uma versão simplificada do circuito MIGAT que gera impulsos bipolares de alta tensão, para vários regimes de funcionamento, com diversos tipos de carga e com a inclusão de elementos parasitas (capacidades e indutâncias distribuídas) e estuda-se a influência destes elementos nos regimes de funcionamento do circuito e das condições mais favoráveis para o funcionamento dos DSP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação surgiu com o objectivo de se criar uma base de dados de Toners para impressoras e fotocopiadoras e um método fiável de comparação de espectros para estudos forenses e de investigação criminal. Para viabilizar o estudo, efectuou-se à priori a recolha de várias amostras de Toners, de diferentes marcas, de cartuchos originais e remanufacturados aplicando de seguida dois métodos de análise distintos: a Espectroscopia de infravermelho com transformada de Fourier (FT-IR) e a Espectroscopia de Absorção-Reflexão (ATR - Reflectância total atenuada). A espectroscopia FT-IR permitiu obter a base de dados de espectros em suporte KBr e usando o software OPUS, das várias amostras de Toners dos cartuchos originais e remanufacturados recolhidas. Para se criar o método de comparação entre espectros, realizou-se o mesmo procedimento mas agora para amostras obtidas por raspagem de um papel impresso /quadrados 2x2), bem como para o papel de impressão para se poder descontar este da amostra. Dado que o interesse desta análise se remetia ao estudo de textos escritos, efectuou-se a análise de um texto padrão por Espectroscopia FT-IR. O método foi utilizado à posteriori como método de comparação e uma alternativa (não destrutiva) ao método de FT-IR para se aplicar a casos reais. Os espectros foram obtidos num microscópio usando o silício como acessório ATR e o software OMNIC. Finalizado o estudo pode-se concluir, quanto à espectroscopia FT-IR, que as amostras da marca HP e Minolta apresentaram espectros muito semelhantes, quando se faz uma análise global dos mesmos. No entanto, as restantes marcas são também muito parecidas entre si, mas ainda é possível encontrar algumas distinções quando se efectua a comparação visual principalmente abaixo da zona de impressão digital (<6000 cm-1). Relativamente aos Toners remanufacturados, constata-se que são muito semelhantes e que diferem da marca original apenas pelo elevado grau de humidade que possuem. No que diz respeito ao método ATR, verificou-se que apesar de ser um método não destrutivo da amostra revela-se bastante limitado, devido ao uso do cristal de Silício como acessório que só atinge comprimentos de onda entre 4000-1500cm-1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As vias de comunicação são indispensáveis para o desenvolvimento de uma nação, económica e socialmente. Num mundo globalizado, onde tudo deve chegar ao seu destino no menor espaço de tempo, as vias de comunicação assumem um papel vital. Assim, torna-se essencial construir e manter uma rede de transportes eficiente. Apesar de não ser o método mais eficiente, o transporte rodoviário é muitas vezes o mais económico e possibilita o transporte porta-a-porta, sendo em muitos casos o único meio de transporte possível. Por estas razões, o modo rodoviário tem uma quota significativa no mercado dos transportes, seja de passageiros ou mercadorias, tornando-o extremamente importante na rede de transportes de um país. Os países europeus fizeram um grande investimento na criação de extensas redes de estradas, cobrindo quase todo o seu território. Neste momento, começa-se a atingir o ponto onde a principal preocu+ação das entidades gestoras de estradas deixa de ser a construção de novas vias, passando a focar-se na necessidade de manutenção e conservação das vias existentes. Os pavimentos rodoviários, como todas as outras construções, requerem manutenção de forma a garantir bons níveis de serviço com qualidade, conforto e segurança. Devido aos custos inerentes às operações de manutenção de pavimentos, estas devem rigorosamente e com base em critérios científicos bem definidos. Assim, pretende-se evitar intervenções desnecessárias, mas também impedir que os danos se tornem irreparáveis e economicamente prejudiciais, com repercussões na segurança dos utilizadores. Para se estimar a vida útil de um pavimento é essencial realizar primeiro a caracterização estrutural do mesmo. Para isso, torna-se necessário conhecer o tipo de estrutura de um pavimento, nomeadamente a espessura e o módulo de elasticidade constituintes. A utilização de métodos de ensaio não destrutivos é cada vez mais reconhecida como uma forma eficaz para obter informações sobre o comportamento estrutural de pavimentos. Para efectuar estes ensaios, existem vários equipamentos. No entanto, dois deles, o Deflectómetro de Impacto e o Radar de Prospecção, têm demonstrado ser particularmente eficientes para avaliação da capacidade de carga de um pavimento, sendo estes equipamentos utilizados no âmbito deste estudo. Assim, para realização de ensaios de carga em pavimentos, o equipamento Deflectómetro de Impacto tem sido utilizado com sucesso para medir as deflexões à superfície de um pavimento em pontos pré-determinados quando sujeito a uma carga normalizada de forma a simular o efeito da passagem da roda de um camião. Complementarmente, para a obtenção de informações contínuas sobre a estrutura de um pavimento, o equipamento Radar de Prospecção permite conhecer o número de camadas e as suas espessuras através da utilização de ondas electromagnéticas. Os dados proporcionam, quando usados em conjunto com a realização de sondagens à rotação e poços em alguns locais, permitem uma caracterização mais precisa da condição estrutural de um pavimento e o estabelecimento de modelos de resposta, no caso de pavimentos existentes. Por outro lado, o processamento dos dados obtidos durante os ensaios “in situ” revela-se uma tarefa morosa e complexa. Actualmente, utilizando as espessuras das camadas do pavimento, os módulos de elasticidade das camadas são calculados através da “retro-análise” da bacia de deflexões medida nos ensaios de carga. Este método é iterativo, sendo que um engenheiro experiente testa várias estruturas diferentes de pavimento, até se obter uma estrutura cuja resposta seja o mais próximo possível da obtida durante os ensaios “in Situ”. Esta tarefa revela-se muito dependente da experiência do engenheiro, uma vez que as estruturas de pavimento a serem testadas maioritariamente do seu raciocínio. Outra desvantagem deste método é o facto de apresentar soluções múltiplas, dado que diferentes estruturas podem apresentar modelos de resposta iguais. A solução aceite é, muitas vezes, a que se julga mais provável, baseando-se novamente no raciocínio e experiência do engenheiro. A solução para o problema da enorme quantidade de dados a processar e das múltiplas soluções possíveis poderá ser a utilização de Redes Neuronais Artificiais (RNA) para auxiliar esta tarefa. As redes neuronais são elementos computacionais virtuais, cujo funcionamento é inspirado na forma como os sistemas nervosos biológicos, como o cérebro, processam a informação. Estes elementos são compostos por uma série de camadas, que por sua vez são compostas por neurónios. Durante a transmissão da informação entre neurónios, esta é modificada pela aplicação de um coeficiente, denominado “peso”. As redes neuronais apresentam uma habilidade muito útil, uma vez que são capazes de mapear uma função sem conhecer a sua fórmula matemática. Esta habilidade é utilizada em vários campos científicos como o reconhecimento de padrões, classificação ou compactação de dados. De forma a possibilitar o uso desta característica, a rede deverá ser devidamente “treinada” antes, processo realizado através da introdução de dois conjuntos de dados: os valores de entrada e os valores de saída pretendidos. Através de um processo cíclico de propagação da informação através das ligações entre neurónios, as redes ajustam-se gradualmente, apresentando melhores resultados. Apesar de existirem vários tipos de redes, as que aparentam ser as mais aptas para esta tarefa são as redes de retro-propagação. Estas possuem uma característica importante, nomeadamente o treino denominado “treino supervisionado”. Devido a este método de treino, as redes funcionam dentro da gama de variação dos dados fornecidos para o “treino” e, consequentemente, os resultados calculados também se encontram dentro da mesma gama, impedindo o aparecimento de soluções matemáticas com impossibilidade prática. De forma a tornar esta tarefa ainda mais simples, foi desenvolvido um programa de computador, NNPav, utilizando as RNA como parte integrante do seu processo de cálculo. O objectivo é tornar o processo de “retro-análise” totalmente automático e prevenir erros induzidos pela falta de experiência do utilizador. De forma a expandir ainda mais as funcionalidades do programa, foi implementado um processo de cálculo que realiza uma estimativa da capacidade de carga e da vida útil restante do pavimento, recorrendo a dois critérios de ruína. Estes critérios são normalmente utilizados no dimensionamento de pavimentos, de forma a prevenir o fendilhamento por fadiga e as deformações permanentes. Desta forma, o programa criado permite a estimativa da vida útil restante de um pavimento de forma eficiente, directamente a partir das deflexões e espessuras das camadas, medidas nos ensaios “in situ”. Todos os passos da caracterização estrutural do pavimento são efectuados pelo NNPav, seja recorrendo à utilização de redes neuronais ou a processos de cálculo matemático, incluindo a correcção do módulo de elasticidade da camada de misturas betuminosas para a temperatura de projecto e considerando as características de tráfego e taxas de crescimento do mesmo. Os testes efectuados às redes neuronais revelaram que foram alcançados resultados satisfatórios. Os níveis de erros na utilização de redes neuronais são semelhantes aos obtidos usando modelos de camadas linear-elásticas, excepto para o cálculo da vida útil com base num dos critérios, onde os erros obtidos foram mais altos. No entanto, este processo revela-se bastante mais rápido e possibilita o processamento dos dados por pessoal com menos experiência. Ao mesmo tempo, foi assegurado que nos ficheiros de resultados é possível analisar todos os dados calculados pelo programa, em várias fases de processamento de forma a permitir a análise detalhada dos mesmos. A possibilidade de estimar a capacidade de carga e a vida útil restante de um pavimento, contempladas no programa desenvolvido, representam também ferramentas importantes. Basicamente, o NNPav permite uma análise estrutural completa de um pavimento, estimando a sua vida útil com base nos ensaios de campo realizados pelo Deflectómetro de Impacto e pelo Radar de Prospecção, num único passo. Complementarmente, foi ainda desenvolvido e implementado no NNPav um módulo destinado ao dimensionamento de pavimentos novos. Este módulo permite que, dado um conjunto de estruturas de pavimento possíveis, seja estimada a capacidade de carga e a vida útil daquele pavimento. Este facto permite a análise de uma grande quantidade de estruturas de pavimento, e a fácil comparação dos resultados no ficheiro exportado. Apesar dos resultados obtidos neste trabalho serem bastante satisfatórios, os desenvolvimentos futuros na aplicação de Redes Neuronais na avaliação de pavimentos são ainda mais promissores. Uma vez que este trabalho foi limitado a uma moldura temporal inerente a um trabalho académico, a possibilidade de melhorar ainda mais a resposta das RNA fica em aberto. Apesar dos vários testes realizados às redes, de forma a obter as arquitecturas que apresentassem melhores resultados, as arquitecturas possíveis são virtualmente ilimitadas e pode ser uma área a aprofundar. As funcionalidades implementadas no programa foram as possíveis, dentro da moldura temporal referida, mas existem muitas funcionalidades a serem adicinadas ou expandidas, aumentando a funcionalidade do programa e a sua produtividade. Uma vez que esta é uma ferramenta que pode ser aplicada ao nível de gestão de redes rodoviárias, seria necessário estudar e desenvolver redes similares de forma a avaliar outros tipos de estruturas de pavimentos. Como conclusão final, apesar dos vários aspectos que podem, e devem ser melhorados, o programa desenvolvido provou ser uma ferramenta bastante útil e eficiente na avaliação estrutural de pavimentos com base em métodos de ensaio não destrutivos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objetivou-se testar a associação do diabetes mellitus com a doença isquêmica do coração, procedendo-se ao ajustamento simultâneo para possíveis variáveis de confusão e/ou modificadoras de efeito. O estudo foi planejado sob a forma de um desenho tipo caso-controle, a coleta de dados estendeu-se de março de 1993 a fevereiro de 1994. Utilizou-se a estratégia de compor três bancos de dados que permitiram a realização do estudo em duas bases populacionais: uma base primária e uma base secundária. A amostra total foi composta por 833 indivíduos de ambos os sexos, na faixa etária de 30 a 69 anos completos, sendo todos residentes no município de São Paulo. A técnica estatística utilizada para a análise dos dados foi a regressão logística multivariada. Os resultados permitiram identificar que o diabetes mellitus não se constituiu em fator de risco independente para a doença isquêmica do coração, nas duas bases populacionais estudadas. Por outro lado, foi possível identificar, de forma consistente, um efeito independente para as variáveis hipertensão arterial, hipercolesterolemia, hábito de fumar e antecedentes familiares de cardiopatia. As interações consideradas de interesse, combinando-se história positiva de diabetes com as categorias de exposição de outras variáveis, não apresentaram significância estatística. São apresentadas algumas razões de ordem metodológica que exerceriam influência sobre a magnitude das medidas de efeito em diferentes bases populacionais. Conclui-se que o desaparecimento da associação diabetes x doença isquêmica do coração foi decorrente da presença, nos modelos, de potentes fatores de risco.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta-se um sistema computacional, denominado ICADPLUS, desenvolvido para elaboração de banco de dados, tabulação de dados, cálculo do índice CPO e análise estatística para estimação de intervalos de confiança e comparação de resultados de duas populações.Tem como objetivo apresentar método simplificado para atender necessidades de serviços de saúde na área de odontologia processando fichas utilizadas por cirurgiões dentistas em levantamentos epidemiológicos de cárie dentária. A característica principal do sistema é a dispensa de profissional especializado na área de odontologia e computação, exigindo o conhecimento mínimo de digitação por parte do usuário, pois apresenta "menus" simples e claros como também relatórios padronizados, sem possibilidade de erro. Possui opções para fichas de CPO segundo Klein e Palmer, CPO proposto pela OMS, CPOS segundo Klein, Palmer e Knutson, e ceo. A validação do sistema foi feita por comparação com outros métodos, permitindo recomendar sua adoção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resultados de diversos estudos têm apontado a relevância da hipertensão arterial, do hábito de fumar e da hipercolesterolemia como fatores de risco para a doença isquêmica do coração (DIC). Poucos autores têm investigado a existência de gradiente linear relacionando a quantidade destas exposições com os eventos coronarianos. Com o objetivo de avaliar o efeito de diferentes graus de exposição a estas variáveis sobre a DIC, procedendo-se ao ajustamento para possíveis variáveis de confusão, foi feito estudo planejado sob a forma de desenho tipo caso-controle, tendo a coleta de dados se estendido de março de 1993 a fevereiro de 1994. Foram estudados 833 indivíduos de ambos os sexos, na faixa etária compreendida entre 30 e 69 anos completos, sendo todos residentes no Município de São Paulo, SP (Brasil). Foram comparados 280 casos com 553 controles (285 controles de vizinhança e 268 controles hospitalares). A técnica estatística utilizada para a análise dos dados foi a regressão logística multivariada. Os resultados permitiram identificar gradiente linear para as variáveis duração da hipertensão arterial e para número de cigarros consumidos/dia. As variáveis duração do hábito de fumar e duração da hipercolesterolemia, embora tendo apresentado "odds ratios" significantes para as respectivas categorias de exposição, não apresentaram gradiente linear. Foram discutidos aspectos metodológicos que poderiam exercer influência sobre a tendência dos "odds ratios" nas categorias de exposição das variáveis duração do hábito de fumar e duração da hipercolesterolemia. Conclui-se que os efeitos dose-resposta observados para as variáveis duração da hipertensão arterial e número de cigarros consumidos/dia foram independentes da presença nos modelos de potentes fatores de risco para a doença isquêmica do coração.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho é um contributo para o desenvolvimento de sistemas de conversão de energia eólica em energia eléctrica em equipamentos comercialmente disponíveis. Com base na recolha de dados meteorológicos, foi caracterizada a disponibilidade da energia eólica num local de instalação de um sistema de geração de energia eléctrica. A exploração dos recursos eólicos pode ser caracterizada por intermédio de geradores eléctricos accionados por turbinas de eixo vertical ou de eixo horizontal. O sistema de geração projectado utiliza como gerador eléctrico a máquina assíncrona de rotor em curto-circuito accionada por uma turbina de eixo vertical do tipo Savonius. No que respeita a conversão electromecânica de energia, para realizar a excitação do gerador de indução e o controlo da potência entregue à rede, foi utilizado um conversor electrónico industrial do tipo regenerativo dedicado a accionamentos de velocidade variável. A estratégia de controlo utilizada, nos modelos desenvolvidos para simulação do sistema de geração proposto, utiliza a técnica de controlo vectorial de orientação de campo para realizar o controlo do binário do gerador de indução, colocando-o em modo de frenagem, através do qual é recolhida energia eléctrica. Tendo em vista a comprovação experimental do desempenho do sistema proposto, foi realizado em laboratório um protótipo. Neste protótipo a turbina Savonius é simulada por um accionamento mecânico constituído por um conjunto variador de velocidade - máquina síncrona de magnetos permanentes. O controlo do sistema é feito por intermédio de um processador digital de sinal (DSP). O DSP impõe a dinâmica desejada para turbina ao seu simulador electromecânico, faz o tratamento dos dados adquiridos no sistema gerador, implementa o seu controlo e estabelece a interface humano-máquina. O modelo teórico proposto para o sistema de geração e a estratégia de controlo adoptada são validados por comparação entre resultados de simulação numérica e os correspondentes resultados experimentais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Perda auditiva: elevada prevalência da perda auditiva (14,1%), efeitos na comunicação, efeitos em aspectos psicossociais, cognitivos, da fala e linguagem. Avaliação da perda auditiva: baseia-se nos testes audiométricos psicoacústicos, base audiometria tonal, que permite estimar a sensibilidade auditiva (normal vs anormal), permite classificar o tipo e grau de perda auditiva, avaliação qualitativa com a utilização de escalas desenvolvidas para esse efeito, HHIA (Hearing Handicap Inventory for Adults), instrumento desenvolvido a partir do HHIE (Hearing Handicap Inventory for the Elderly), para ser usado com pacientes de idade inferior a 65 anos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mudanças nos hábitos alimentares têm sido observadas nas últimas décadas, em vários países, revelando a complexidade dos modelos de consumo e de seus fatores determinantes. Assim, a adoção de uma abordagem multidisciplinar e comparativa, onde os vários aspectos da alimentação (econômicos, sociais, culturais e nutricionais) possam ser avaliados, faz-se ainda mais necessária, de modo a permitir a elucidação dos mecanismos responsáveis por essas mudanças e suas conseqüências, nos diferentes contextos socioeconômicos. Foram analisadas as contribuições de várias áreas de conhecimento ao estudo da situação alimentar e discutidos os enfoques dados a esse tema no contexto dos países do Norte e do Sul e, mais especificamente, para o caso brasileiro. Propõe-se a análise do consumo alimentar a partir da noção de "sistemas alimentares", numa perspectiva histórica. Trata-se de considerar os diferentes agentes sociais (produtores, distribuidores, consumidores e o Estado), suas lógicas, suas estratégias e as relações que se estabelecem entre eles, ao longo do tempo, visando assim à compreensão do processo através do qual os hábitos alimentares se constroem e evoluem.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As mortes por causas externas correspondem a grande parcela de óbitos em, praticamente, todos os países do mundo, ocupando, sempre, a segunda ou terceira colocação. Porém a sua distribuição quanto ao tipo de causa é diversa. Com o objetivo de estudar a mortalidade por causas externas, segundo o tipo de causa, sexo e idade, foi descrita a situação dessas mortes no Brasil e capitais, no período 1977 a 1994. Foram calculados os coeficientes de mortalidade por causas externas e a mortalidade proporcional, utilizando os dados de mortalidade fornecidos pelo Sistema de Informação de Mortalidade do Ministério da Saúde, e a população foi estimada baseada nos dados censitários de 1970, 1980 e 1991. Os resultados mostraram que, em números absolutos, os óbitos por causas externas quase dobraram no período de 1977 a 1994, passando a ser a segunda causa de morte no País. O coeficiente de mortalidade, em 1994, foi de 69,8/100.000 habitantes e o maior crescimento se deu nos óbitos do sexo masculino. Os coeficientes de mortalidade masculinos são, aproximadamente, 4,5 vezes o valor dos femininos. As causas externas representaram a primeira causa de morte dos 5 aos 39 anos, sendo a maior ocorrência na faixa etária dos 15 a 19 anos (65% dos óbitos por causas externas). Além do aumento, parece estar ocorrendo um deslocamento das mortes para faixas etárias mais jovens. A mortalidade por causas externas, segundo tipo, mostra que durante o período analisado houve aumento tanto nos óbitos por acidentes de trânsito, quanto por homicídios, tendo os suicídios permanecido, praticamente, constantes. No grupo de acidentes classificados como "demais acidentes" houve leve aumento, devido, principalmente, às quedas e afogamentos. Nas capitais dos Estados a mortalidade por causas externas apresentam valores mais altos que a média brasileira, com exceção de algumas áreas do Nordeste. As capitais da região Norte apresentaram algumas das maiores taxas para o País. Já na região Nordeste apenas Recife, Maceió e Salvador apresentaram níveis muito elevados em relação ao País. Vitória, Rio de Janeiro e São Paulo, na região Sudeste, apresentaram os maiores coeficientes do País e Belo Horizonte apresentou declínio no período de estudo. Na região Sul houve aumento nas taxas, bem como na região Centro-Oeste, que teve aumento homogêneo em suas capitais. Esse aumento observado nas diferentes capitais apresentou diferenciais quanto ao tipo de causa externa. Os suicídios não representaram problema de Saúde Pública em nenhuma delas. Os acidentes de trânsito em Vitória, Goiânia, Macapá, Distrito Federal e Curitiba tiveram sua situação agravada. Os homicídios tiveram aumento expressivo em Porto Velho, Rio Branco, Recife, São Luís, Vitória, São Paulo, Curitiba, Porto Alegre, Cuiabá e Distrito Federal. No período estudado houve o crescimento da importância das causas externas para a população brasileira, chamando atenção, principalmente, o aumento dos homicídios. A qualidade das estatísticas de mortalidade por causas externas depende da colaboração do médico legista, e essa qualidade não é a mesma para todas as capitais estudadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho que a seguir se apresenta tem como objectivo descrever a criação de um modelo que sirva de suporte a um sistema de apoio à decisão sobre o risco inerente à execução de projectos na área das Tecnologias de Informação (TI) recorrendo a técnicas de mineração de dados. Durante o ciclo de vida de um projecto, existem inúmeros factores que contribuem para o seu sucesso ou insucesso. A responsabilidade de monitorizar, antever e mitigar esses factores recai sobre o Gestor de Projecto. A gestão de projectos é uma tarefa difícil e dispendiosa, consome muitos recursos, depende de numerosas variáveis e, muitas vezes, até da própria experiência do Gestor de Projecto. Ao ser confrontado com as previsões de duração e de esforço para a execução de uma determinada tarefa, o Gestor de Projecto, exceptuando a sua percepção e intuição pessoal, não tem um modo objectivo de medir a plausibilidade dos valores que lhe são apresentados pelo eventual executor da tarefa. As referidas previsões são fundamentais para a organização, pois sobre elas são tomadas as decisões de planeamento global estratégico corporativo, de execução, de adiamento, de cancelamento, de adjudicação, de renegociação de âmbito, de adjudicação externa, entre outros. Esta propensão para o desvio, quando detectada numa fase inicial, pode ajudar a gerir melhor o risco associado à Gestão de Projectos. O sucesso de cada projecto terminado foi qualificado tendo em conta a ponderação de três factores: o desvio ao orçamentado, o desvio ao planeado e o desvio ao especificado. Analisando os projectos decorridos, e correlacionando alguns dos seus atributos com o seu grau de sucesso o modelo classifica, qualitativamente, um novo projecto quanto ao seu risco. Neste contexto o risco representa o grau de afastamento do projecto ao sucesso. Recorrendo a algoritmos de mineração de dados, tais como, árvores de classificação e redes neuronais, descreve-se o desenvolvimento de um modelo que suporta um sistema de apoio à decisão baseado na classificação de novos projectos. Os modelos são o resultado de um extensivo conjunto de testes de validação onde se procuram e refinam os indicadores que melhor caracterizam os atributos de um projecto e que mais influenciam o risco. Como suporte tecnológico para o desenvolvimento e teste foi utilizada a ferramenta Weka 3. Uma boa utilização do modelo proposto possibilitará a criação de planos de contingência mais detalhados e uma gestão mais próxima para projectos que apresentem uma maior propensão para o risco. Assim, o resultado final pretende constituir mais uma ferramenta à disposição do Gestor de Projecto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação pretende conceber e implementar um sistema de controlo tolerante a falhas, no canal experimental de rega da Universidade de Évora, utilizando um modelo implementado em MATLAB/SIMULINK®. Como forma de responder a este desafio, analisaram-se várias técnicas de diagnóstico de falhas, tendo-se optado por técnicas baseadas em redes neuronais para o desenvolvimento de um sistema de detecção e isolamento de falhas no canal de rega, sem ter em conta o tipo de sistema de controlo utilizado. As redes neuronais foram, assim, os processadores não lineares utilizados e mais aconselhados em situações onde exista uma abundância de dados do processo, porque aprendem por exemplos e são suportadas por teorias estatísticas e de optimização, focando não somente o processamento de sinais, como também expandindo os horizontes desse processamento. A ênfase dos modelos das redes neuronais está na sua dinâmica, na sua estabilidade e no seu comportamento. Portanto, o trabalho de investigação do qual resultou esta Dissertação teve como principais objectivos o desenvolvimento de modelos de redes neuronais que representassem da melhor forma a dinâmica do canal de rega, de modo a obter um sistema de detecção de falhas que faça uma comparação entre os valores obtidos nos modelos e no processo. Com esta diferença de valores, da qual resultará um resíduo, é possível desenvolver tanto o sistema de detecção como de isolamento de falhas baseados nas redes neuronais, possibilitando assim o desenvolvimento dum sistema de controlo tolerante a falhas, que engloba os módulos de detecção, de isolamento/diagnóstico e de reconfiguração do canal de rega. Em síntese, na Dissertação realizada desenvolveu-se um sistema que permite reconfigurar o processo em caso de ocorrência de falhas, melhorando significativamente o desempenho do canal de rega.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

INTRODUÇÃO: Objetivou-se analisar as tendência recentes na assistência hospitalar no Estado do Rio de Janeiro. Os dados originam-se da prestação mensal de serviços dos subsetores, universitários e privado, credenciados ao Sistema Único de Saúde (SUS), entre janeiro de 1992 e outubro de 1995. METODOLOGIA: Foram utilizadas as informações registradas nos formulários de Autorização de Internação Hospitalar, processadas pelo Sistema de Informações Hospitalares do SUS (SIH-SUS). A análise comparativa dos três subsetores centrou-se na produção dos serviços e resultados. Tais comparações foram realizadas utilizando-se modelos estruturais de séries temporais, que se baseiam na decomposição de componentes de interesse, como tendência, sazonalidade e irregularidade. RESULTADOS: A freqüência de internações no Estado tendeu ao declínio, em decorrência especialmente da retração do subsetor público a partir de 1993. Essa redução foi seletiva — no que se refere à distribuição por faixas etárias — concentrando-se nos adultos e idosos. Somente o subsetor universitário aumentou gradativamente o volume de admissões. A qualidade da assistência foi avaliada por meio da abordagem de eventos-sentinelas. A ocorrência de óbitos evitáveis nas internações no Estado apresentou discreta tendência ao declínio, detectada pela sua redução no subsetor privado. Nos subsetores público e universitário, a freqüência dos óbitos evitáveis manteve-se estável. A ocorrência de óbitos maternos no Estado permaneceu alta e estável, enquanto os índices de cesárea revelaram significativo crescimento, apesar de já ter sido observado, desde o início do período, valores bastante altos. CONCLUSÕES: Há problemas sérios na qualidade da atenção hospitalar prestada pelo SUS, no Estado, os quais, a julgar pela situação apresentada nos indicadores utilizados, vêm se agravado. Embora exiba limitações, o banco de dados do SIH-SUS mostrou ser instrumento útil para o monitoramento dos serviços hospitalares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Registo Nacional de Anomalias Congénitas (RENAC) recebe notificações da ocorrência de anomalias congénitas diagnosticadas até ao final do 1º mês de vida, algumas das quais são raras. Foi realizado um estudo observacional, transversal, com a finalidade de descrever a epidemiologia dos registos de anomalias congénitas que constituem uma síndrome genética rara, utilizando os dados do RENAC entre 2000-2013. Observou-se uma prevalência de 1,17 casos/10 000 nascimentos de indivíduos com síndrome genética rara com anomalias que afetam múltiplos sistemas. Estas patologias representam um pequeno grupo do universo das doenças raras. No total das síndromes estudadas (n=171), a maior frequência observou-se no grupo de síndromes que afetam predominantemente o aspeto da face (50,9%) e, neste grupo, destacam-se a Sequência de Pierre Robin (26,3%) e a Síndrome de Goldenhar (11,7%). No grupo de outras síndromes genéticas, a Síndrome de DiGeorge foi diagnosticada em 12,3% dos casos. Dada a inexistência de um registo nacional de doenças raras, os dados do RENAC podem contribuir para avaliar a prevalência de algumas destas doenças. Contudo para uma melhor vigilância de algumas doenças raras, o prazo de registo será alargado até ao ano de idade de modo a permitir que situações mais complexas possam ser identificadas e registadas.