1000 resultados para Sinal analítico
Resumo:
O e-working paper que se apresenta insere-se no campo analítico da sociologia da ciência, e tem como objectivos, por um lado, compreender como o género se constitui, ou não, como um elemento estruturante na distribuição dos actores pelo campo disciplinar e, por outro lado, explorar as configurações que a sociologia do género tem assumido na produção científica nacional. Os Congressos Portugueses de Sociologia (1988 a 2008), e a Associação Portuguesa de Sociologia constituíram o material empírico que possibilitou o exercício. This e-working paper integrates the realm of sociology of science, and aimed, on one hand, to understand how gender is a structural element in the distribution of actors within the disciplinary field and, on the other hand, to explore the configurations of sociology of gender in the scientific production. Therefore, the analysis is produced from two privileged empirical objects: the Portuguese Congress of Sociology (1988 to 2008) and the Portuguese Association of Sociology.
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações
Resumo:
Actualmente tem-se observado um aumento do volume de sinais de fala em diversas aplicações, que reforçam a necessidade de um processamento automático dos ficheiros. No campo do processamento automático destacam-se as aplicações de “diarização de orador”, que permitem catalogar os ficheiros de fala com a identidade de oradores e limites temporais de fala de cada um, através de um processo de segmentação e agrupamento. No contexto de agrupamento, este trabalho visa dar continuidade ao trabalho intitulado “Detecção do Orador”, com o desenvolvimento de um algoritmo de “agrupamento multi-orador” capaz de identificar e agrupar correctamente os oradores, sem conhecimento prévio do número ou da identidade dos oradores presentes no ficheiro de fala. O sistema utiliza os coeficientes “Mel Line Spectrum Frequencies” (MLSF) como característica acústica de fala, uma segmentação de fala baseada na energia e uma estrutura do tipo “Universal Background Model - Gaussian Mixture Model” (UBM-GMM) adaptado com o classificador “Support Vector Machine” (SVM). No trabalho foram analisadas três métricas de discriminação dos modelos SVM e a avaliação dos resultados foi feita através da taxa de erro “Speaker Error Rate” (SER), que quantifica percentualmente o número de segmentos “fala” mal classificados. O algoritmo implementado foi ajustado às características da língua portuguesa através de um corpus com 14 ficheiros de treino e 30 ficheiros de teste. Os ficheiros de treino dos modelos e classificação final, enquanto os ficheiros de foram utilizados para avaliar o desempenho do algoritmo. A interacção com o algoritmo foi dinamizada com a criação de uma interface gráfica que permite receber o ficheiro de teste, processá-lo, listar os resultados ou gerar um vídeo para o utilizador confrontar o sinal de fala com os resultados de classificação.
Resumo:
O desenvolvimento da medicina moderna é cada vez mais indissociável das tecnologias e da sua crescente inovação. O seu uso constitui um elemento integrante e indispensável na prática médica, a ponto da sua incorporação ser projectada como um sinal de avanço neste campo científico. De resto, o modo como as novas tecnologias vão sendo desenvolvidas e aplicadas à prática médica tende a ser entendido como algo de benéfico e naturalmente irrecusável para a saúde humana. Contudo, o que um olhar menos triunfalista sobre o valor intrínseco das tecnologias nos pode ajudar a desocultar é o facto de que as inovações contemporâneas não estão simplesmente a estender o repertório médico, mas estão também a transformar a própria medicina. Estas inovações estão a mudar a nossa compreensão da doença e da saúde, redefinindo os conceitos de doença, de medicina e de corpo. Com efeito, os conceitos de saúde e de estilo de vida encontram-se cada vez mais ancorados na ideia de um corpo saudável e com potencialidades de majoração por via da técnica, o que é elucidativo da crescente entronização do valor da saúde nas sociedades modernas, como também é um indicador expressivo do impacto das novas tecnologias médicas na produção de novos significados sobre o corpo, a saúde e a própria vida humana. Questionando a tradicional confiança epistemológica na racionalidade técnica, procuraremos identificar e avaliar a emergência de novos riscos e incertezas, e deste modo colocar em evidência que as tecnologias reconfiguram a realidade e inauguram novas áreas de incerteza e indeterminação.
Resumo:
A vibração em equipamento industrial pode ser tanto um sinal de que o equipamento está a funcionar normalmente como pode revelar que o mesmo apresenta problemas. É assim importante que o técnico de manutenção consiga distinguir entre níveis normais e aceitáveis de vibração e os que requerem atenção imediata para monitorar. Nesta dissertação é estudado o problema de análise de vibrações em caixas redutoras - uma em bom estado e outra com desgaste no par de engrenagens. A escolha desta dissertação prende-se com a importância e uso generalizado de caixas de engrenagens - neste caso de caixas redutoras - nas grandes indústrias. Como tal, hoje em dia, as caixas redutoras estão geralmente providas de sistema de monitorização “online” que alertam o técnico responsável de quando algo foge dos parâmetros definidos pelo utilizador - aumento súbito de temperatura, de amplitude de vibração, entre outros. Esta dissertação pretende assim responder a algumas questões pertinentes: • Como responde uma caixa redutora quando se variam os parâmetros de velocidade e carga e como as variações dos mesmos se traduzem nos espectros de frequência? • Qual dos parâmetros - velocidade e carga - tem uma maior influência nas amplitudes de vibração registadas para as várias frequências típicas de uma caixa redutora? • O que é registado ao nível do espectro de frequências, no estudo de uma caixa redutora com o defeito de desgaste? • A teoria consultada para as caixas redutoras é comparável com os dados obtidos na prática? • Porquê a importância de utilizar a análise de vibrações quando se monitorizam caixas redutoras? Para ajudar a responder estas questões foi utilizada uma aplicação designada de Enlive, um programa de controlo de condição de máquinas para sistemas “online” - ou seja, para sistemas em contínua monitorização. A análise dos sinais provenientes das caixas redutoras foi realizada com recurso à transformada rápida de Fourier - Fast Fourier Trabsform. No fim da realização desta dissertação foi possível responder a todos os pontos referidos anteriormente. Foi possível confirmar a maior importância do factor carga no aumento da amplitude de engrenamento, harmónicas e bandas laterais. Este aumento é mais pronunciado no caso da caixa redutora com desgaste. A análise de vibrações assume-se assim, mais uma vez, como uma ferramenta importante no diagnóstico de avarias, permitindo poupar tempo e recursos - tanto financeiros como humanos - e salvaguardar a contínua eficácia e produtividade de uma empresa, pois permite diminuir o tempo que uma máquina não se encontra em funcionamento.
Resumo:
A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.
Resumo:
O objectivo do presente trabalho foi desenvolver, implementar e validar métodos de determinação de teor de cálcio (Ca), magnésio (Mg), sódio (Na), potássio (K) e fósforo (P) em biodiesel, por ICP-OES. Este método permitiu efectuar o controlo de qualidade do biodiesel, com a vantagem de proporcionar uma análise multi-elementar, reflectindo-se numa diminuição do tempo de análise. Uma vez que o biodiesel é uma das principais fontes de energia renovável e alternativa ao diesel convencional, este tipo de análises revela-se extremamente útil para a sua caracterização. De acordo com a análise quantitativa e qualitativa e após a validação dos respectivos ensaios, apresentam-se, na Tabela 1 as condições optimizadas para cada elemento em estudo. As condições de trabalho do ICP-OES foram escolhidas tendo em conta as características do elemento em estudo, o tipo de equipamento utilizado para a sua análise, e de modo a obter a melhor razão sinal/intensidade de fundo. Para a validação dos ensaios foram efectuados ensaios de recuperação, determinados limites de detecção e quantificação, ensaios de repetibilidade e reprodutibilidade, e verificação das curvas de calibração. Na tabela 2 apresentam-se os comprimentos de onda escolhidos (livres de interferências) e respectivos limites de detecção e quantificação dos elementos analisados por ICP-OES, na posição radial e radial atenuado.
Resumo:
Os aditivos alimentares desempenham um papel vital na indústria alimentar moderna e são geralmente utilizados na manutenção da qualidade e das características dos alimentos, promovendo desta forma a segurança alimentar. Para garantir o consumo seguro de alimentos com aditivos, os Estados Membros da União Europeia devem estabelecer um sistema regular de vigilância para monitorização desse consumo. No sentido de obter essa informação, é necessário aplicar métodos de análise robustos de modo a quantificar os níveis dessas substâncias numa larga variedade de matrizes alimentares. O presente trabalho teve como objectivos: a determinação analítica do tipo e do teor de aditivos alimentares nos novos refrigerantes à base de água mineral através de um método de HPLC baseado na norma EN 12856, a validação do método analítico para a quantificação dos edulcorantes (acessulfame K, aspartame e sacarina) e dos conservantes (ácido sórbico e ácido benzóico) e a comparação dos resultados obtidos com os valores máximos permitidos pela legislação portuguesa. Dos refrigerantes à base de água existentes no mercado português, foram analisadas 34 amostras de diferentes marcas, para determinação do tipo e teor de aditivos. Na validação da metodologia foram avaliados os seguintes parâmetros: gama de trabalho, linearidade, sensibilidade, limite de detecção (LD), limite de quantificação (LQ), precisão (repetibilidade e precisão intermédia) e exactidão. Relativamente à análise dos edulcorantes, verificou-se a presença do acessulfame K em 12 refrigerantes numa concentração que oscilou entre 34 e 94 mg/L. O aspartame foi encontrado apenas em 5 amostras num intervalo de concentração de 36 a 159 mg/L e a sacarina não foi detectada. No caso dos conservantes, o ácido sórbico foi encontrado em 19 dos refrigerantes numa gama de concentração entre 109 e 283 mg/L enquanto que o ácido benzóico, presente em 18 amostras, apresentou um teor que variou entre 91 e 143 mg/L. Observou-se ainda que o teor de cada um dos aditivos nos diferentes refrigerantes não excedeu o limite máximo legislado.
Resumo:
Este trabalho é um contributo para o desenvolvimento de sistemas de conversão de energia eólica em energia eléctrica em equipamentos comercialmente disponíveis. Com base na recolha de dados meteorológicos, foi caracterizada a disponibilidade da energia eólica num local de instalação de um sistema de geração de energia eléctrica. A exploração dos recursos eólicos pode ser caracterizada por intermédio de geradores eléctricos accionados por turbinas de eixo vertical ou de eixo horizontal. O sistema de geração projectado utiliza como gerador eléctrico a máquina assíncrona de rotor em curto-circuito accionada por uma turbina de eixo vertical do tipo Savonius. No que respeita a conversão electromecânica de energia, para realizar a excitação do gerador de indução e o controlo da potência entregue à rede, foi utilizado um conversor electrónico industrial do tipo regenerativo dedicado a accionamentos de velocidade variável. A estratégia de controlo utilizada, nos modelos desenvolvidos para simulação do sistema de geração proposto, utiliza a técnica de controlo vectorial de orientação de campo para realizar o controlo do binário do gerador de indução, colocando-o em modo de frenagem, através do qual é recolhida energia eléctrica. Tendo em vista a comprovação experimental do desempenho do sistema proposto, foi realizado em laboratório um protótipo. Neste protótipo a turbina Savonius é simulada por um accionamento mecânico constituído por um conjunto variador de velocidade - máquina síncrona de magnetos permanentes. O controlo do sistema é feito por intermédio de um processador digital de sinal (DSP). O DSP impõe a dinâmica desejada para turbina ao seu simulador electromecânico, faz o tratamento dos dados adquiridos no sistema gerador, implementa o seu controlo e estabelece a interface humano-máquina. O modelo teórico proposto para o sistema de geração e a estratégia de controlo adoptada são validados por comparação entre resultados de simulação numérica e os correspondentes resultados experimentais.
Resumo:
A motivação para este trabalho vem da necessidade que o autor tem em poder registar as notas tocadas na guitarra durante o processo de improviso. Quando o músico está a improvisar na guitarra, muitas vezes não se recorda das notas tocadas no momento, este trabalho trata o desenvolvimento de uma aplicação para guitarristas, que permita registar as notas tocadas na guitarra eléctrica ou clássica. O sinal é adquirido a partir da guitarra e processado com requisitos de tempo real na captura do sinal. As notas produzidas pela guitarra eléctrica, ligada ao computador, são representadas no formato de tablatura e/ou partitura. Para este efeito a aplicação capta o sinal proveniente da guitarra eléctrica a partir da placa de som do computador e utiliza algoritmos de detecção de frequência e algoritmos de estimação de duração de cada sinal para construir o registo das notas tocadas. A aplicação é desenvolvida numa perspectiva multi-plataforma, podendo ser executada em diferentes sistemas operativos Windows e Linux, usando ferramentas e bibliotecas de domínio público. Os resultados obtidos mostram a possibilidade de afinar a guitarra com valores de erro na ordem de 2 Hz em relação às frequências de afinação standard. A escrita da tablatura apresenta resultados satisfatórios, mas que podem ser melhorados. Para tal será necessário melhorar a implementação de técnicas de processamento do sinal bem como a comunicação entre processos para resolver os problemas encontrados nos testes efectuados.
Resumo:
Com este trabalho pretende-se estudar o desempenho das tecnologias GSM-R e WiMAX em ambientes ferroviários. Este tipo de estudo tem uma importância elevada devido grande interesse na reestruturação dos sistemas de comunicações vocacionados para aplicações ferroviárias. Estes sistemas são cada vez mais complexos, apresentando níveis mais elevados de exigência, como a segurança, suporte de sinalização, tráfego ferroviário e interoperabilidade entre sistemas de diferentes países. Com tudo isto é necessário explorar e conhecer o comportamento de diversas tecnologias para este tipo de aplicações. Neste trabalho foi efectuado um primeiro estudo abrangendo a tecnologia WiMAX (Norma IEEE 802.16d) em ambientes interiores de edifícios, de forma a estudar o seu comportamento com e sem linha de vista e em proximidade e afastamento da estação base. Este estudo foi conclusivo quanto há não adequação desta tecnologia em ambientes ferroviários, visto ter sido observado que em situações de ausência de linha de vista a degradação da qualidade do sinal não conseguiria suportar os níveis de exigência necessários para a aplicação do mesmo em ambientes ferroviários. Analisou-se em segundo lugar a tecnologia GSM-R, onde se efectuou um estudo de campo em ambientes reais. Para o estudo desta tecnologia foram utilizados ambientes diversificados de forma a obter um estudo mais aprofundado do seu comportamento. Como objectivo têm-se a criação de melhores métodos de planeamento, mais vocacionados para as características específicas dos ambientes ferroviários e exigências das aplicações dos sistemas de comunicações ferroviários. Através deste estudo foi possível obter conclusões relativamente à variação da potência do sinal para as diversas condições e ambientes de propagação a que o sistema GSM-R foi sujeito, tendo sido possível também caracterizar o tipo de ambientes característicos das linhas ferroviárias. Foi possível também concluir que este tipo de sistemas consegue responder aos níveis de exigência e aplicações dos sistemas de comunicação ferroviários, trazendo uma mais-valia relativamente aos existentes actualmente a nível nacional.
Resumo:
O downpull é uma força gerada pelo efeito do escoamento em comportas planas com estanquidade a jusante e pode condicionar, de forma determinante, o dimensionamento do órgão de manobra e a preponderância de fecho de uma comporta vertical em condições de emergência. Neste trabalho é desenvolvido um modelo de cálculo analítico para a obtenção do downpull e um modelo de simulação numérica com Computational Fluid Dynamics (CFD). O modelo analítico desenvolvido foi exposto numa folha de cálculo e permite a obtenção de resultados em poucos minutos, factor essencial sob o ponto de vista económico. O modelo em CFD tem como principal objectivo a validação do modelo analítico. Sendo um modelo mais complexo e dispendioso em termos de tempo despendido, apenas poderá ser utilizado em situações pontuais que exijam um maior rigor nos resultados obtidos.
Resumo:
O presente trabalho teve como principal objectivo o desenvolvimento de um analisador de vibrações de dois canais baseado em computador, para a realização de diagnóstico no âmbito do controlo de condição de máquinas. Foi desenvolvida uma aplicação num computador comum, no software LabVIEW, que através de transdutores de aceleração do tipo MEMS conectados via USB, faz a recolha de dados de vibração e procede ao seu processamento e apresentação ao utilizador. As ferramentas utilizadas para o processamento de dados são ferramentas comuns encontradas em vários analisadores de vibrações disponíveis no mercado. Estas podem ser: gráficos de espectro de frequência, sinal no tempo, cascata ou valores de nível global de vibração, entre outras. Apesar do analisador desenvolvido não apresentar inovação nas ferramentas de análise adoptadas, este pretende ser distinguido pelo baixo custo, simplicidade e carácter didáctico. Este trabalho vem evidenciar as vantagens, desvantagens e potencialidades de um analisador desta natureza. São tiradas algumas conclusões quanto à sua capacidade de diagnóstico de avarias, capacidades como ferramenta didáctica, sensores utilizados e linguagem de programação escolhida. Como conclusões principais, o trabalho revela que os sensores escolhidos não são os indicados para efectuar o diagnóstico de avarias em ambiente industrial, contudo são ideais para tornar este analisador numa boa ferramenta didáctica e de treino.
Resumo:
INTRODUÇÃO: A doença meningocócica (DM) continua merecendo avaliações quanto a sua multicausalidade endêmica e epidêmica e seu comportamento evolutivo, nos diferentes locais. MATERIAL E MÉTODOS: Partindo da padronização da investigação epidemiológica da DM no Município do Rio de Janeiro a partir da epidemia da década de 70, foram analisados 4.155 casos notificados de 1976 a 1994, através de estudo retrospectivo, descritivo e analítico, com base nas fichas de investigação epidemiológica da Secretaria Municipal de Saúde. Os testes utilizados para análise estatística foram: o chi², o de Wilcoxon-Mann-Whitney e de Kruskal-Wallis. RESULTADOS: O estudo resultou na definição de três períodos, classificados como pós-epidêmico (1976/79), endêmico (1980/86) e epidêmico (1987/94), diferenciados pelas taxas de incidência e pelo sorogrupo do meningococo predominante. As taxas de incidência médias por período no município foram, respectivamente, de 3,51; 1,67 e 6,53 casos/100.000 habitantes. Os sorogrupos A e C predominaram no período pós-epidêmico, o B e o A no endêmico e o B no epidêmico. A letalidade média praticamente não se modificou no decorrer do tempo, mas variou segundo o hospital de internação, tendo sido sempre menor no hospital estadual de referência em relação aos demais públicos e privados. CONCLUSÃO: As maiores taxas de incidência e letalidade corresponderam aos menores de um ano e o risco de adoecer foi maior no sexo masculino. Os maiores coeficientes de incidência tenderam a ocorrer nas mesmas áreas do município, nos três períodos epidemiológicos, e a população que reside em favelas teve um risco de adoecimento duas vezes maior.
Resumo:
O Programa Nacional de Avaliação Externa da Qualidade (PNAEQ) foi criado em 1978 como sendo uma das atribuições do Instituto Nacional de Saúde Doutor Ricardo Jorge (INSA). A sua missão é promover, organizar e coordenar programas de avaliação externa da qualidade (AEQ) para laboratórios que exerçam atividade no setor da saúde. O primeiro programa de AEQ do PNAEQ para avaliação da Fase Pré-Analítica foi distribuído em 2007. Os ensaios são pluridisciplinares, podendo incluir o envio de amostras para avaliação das condições para processamento (aceitação ou rejeição, preparação, acondicionamento), a simulação de requisições médicas, a resposta a questionários, a interpretação de casos-estudo, o levantamento de dados (auditorias ou monitorização de indicadores) ou a realização de chamadas anónimas (“cliente mistério”). O PNAEQ disponibiliza ainda 4 programas em colaboração com a Labquality (Flebotomia e POCT, Química Clínica, Microbiologia e Gases no Sangue) e 1 programa com a ECAT (Hemostase). Em 2015 e 2016, o objetivo dos programas da Fase Pré-Analítica do PNAEQ foi proporcionar o envolvimento do laboratório no processo de avaliação e monitorização da fase pré-analítica, conferindo-lhe ferramentas que lhe permitam realizar a sua autoavaliação. A fase pré-analítica é a que absorve o maior número de erros na análise de amostras biológicas, representando 40% a 70% de todas as falhas ocorridas no processamento analítico (Codagnone et al, 2014). A principal razão está na dificuldade em controlar as variáveis pré-analíticas , uma vez que esta fase envolve inúmeras atividades não automatizadas como a colheita, o manuseamento, o transporte e a preparação das amostras.