999 resultados para Processamento multitaxas
Resumo:
O Programa Nacional de Avaliação Externa da Qualidade (PNAEQ) foi criado em 1978 como sendo uma das atribuições do Instituto Nacional de Saúde Doutor Ricardo Jorge (INSA). A sua missão é promover, organizar e coordenar programas de avaliação externa da qualidade (AEQ) para laboratórios que exerçam atividade no setor da saúde. O primeiro programa de AEQ do PNAEQ para avaliação da Fase Pré-Analítica foi distribuído em 2007. Os ensaios são pluridisciplinares, podendo incluir o envio de amostras para avaliação das condições para processamento (aceitação ou rejeição, preparação, acondicionamento), a simulação de requisições médicas, a resposta a questionários, a interpretação de casos-estudo, o levantamento de dados (auditorias ou monitorização de indicadores) ou a realização de chamadas anónimas (“cliente mistério”). O PNAEQ disponibiliza ainda 4 programas em colaboração com a Labquality (Flebotomia e POCT, Química Clínica, Microbiologia e Gases no Sangue) e 1 programa com a ECAT (Hemostase). Em 2015 e 2016, o objetivo dos programas da Fase Pré-Analítica do PNAEQ foi proporcionar o envolvimento do laboratório no processo de avaliação e monitorização da fase pré-analítica, conferindo-lhe ferramentas que lhe permitam realizar a sua autoavaliação. A fase pré-analítica é a que absorve o maior número de erros na análise de amostras biológicas, representando 40% a 70% de todas as falhas ocorridas no processamento analítico (Codagnone et al, 2014). A principal razão está na dificuldade em controlar as variáveis pré-analíticas , uma vez que esta fase envolve inúmeras atividades não automatizadas como a colheita, o manuseamento, o transporte e a preparação das amostras.
Resumo:
O trabalho apresentado por este documento aborda os problemas que advêm da necessidade de integração de aplicações, desenvolvidas em diferentes instantes no tempo, por diferentes equipas de trabalho, que para enriquecer os processos de negócio necessitam de comunicar entre si. A integração das aplicações tem de ser feita de forma opaca para estas, sendo disponibilizada por uma peça de software genérica, robusta e sem custos para as equipas desenvolvimento, na altura da integração. Esta integração tem de permitir que as aplicações comuniquem utilizando os protocolos que desejarem. Este trabalho propõe um middleware orientado a mensagens como solução para o problema identificado. A solução apresentada por este trabalho disponibiliza a comunicação entre aplicações que utilizam diferentes protocolos, permite ainda o desacoplamento temporal, espacial e de sincronismo na comunicação das aplicações. A implementação da solução tem base num sistema publish/subscribe orientado ao conteúdo e tem de lidar com as maiores exigências computacionais que este tipo de sistema acarta, sendo que a utilização deste se justifica com o enriquecimento da semântica de subscrição de eventos. Esta implementação utiliza uma arquitectura semi-distribuída, com o objectivo de aumentar a escalabilidade do sistema. A utilização da arquitectura semi-distribuída implica que a implementação da solução tem de lidar com o encaminhamento de eventos e divulgação das subscrições, pelos vários servidores de eventos. A implementação da solução disponibiliza garantias de persistência, processamento transaccional e tolerância a falhas, assim como transformação de eventos entre os diversos protocolos. A extensibilidade da solução é conseguida à custa de um sistema de pluggins que permite a adição de suporte a novos protocolos de comunicação. Os protocolos suportados pela implementação final do trabalho são RestMS e TCP.
Resumo:
A presente dissertação apresenta o desenvolvimento de um medidor de componentes passivos RLC. Este medidor baseia-se num protótipo desenvolvido para possibilitar a medição da impedância de um dispositivo em teste. Tendo uma carta de aquisição de sinal como interface, o protótipo comunica com um computador que controla todo o processo de medição desde a aquisição e processamento de sinais ao cálculo e visualização dos parâmetros. A topologia de medição implementada é a da ponte auto-balanceada e no processamento recorre-se ao método da desmodulação síncrona ou coerente. A sua viabilidade é suportada por um estudo teórico prévio, pela discussão das opções tomadas no projecto e pelos resultados obtidos através do algoritmo desenvolvido utilizando o software LabVIEW de programação gráfica.
Resumo:
Esta tese tem como principal objectivo a investigação teórica e experimental do desempenho de um sensor polarimétrico baseado num cristal líquido para medição da concentração de glicose. Recentemente uma série de sensores polarimétricos baseados em cristais líquidos foram propostos na literatura e receberam considerável interesse devido as suas características únicas. De facto, em comparação com outros moduladores electro-ópticos, o cristal líquido funciona com tensões mais baixas, tem baixo consumo de energia e maior ângulo de rotação. Além disso, este tipo de polarímetro pode ter pequenas dimensões que é uma característica interessante para dispositivos portáteis e compactos. Existem por outro lado algumas desvantagens, nomeadamente o facto do desempenho do polarímetro ser fortemente dependente do tipo de cristal líquido e da tensão a ele aplicada o que coloca desafios na escolha dos parâmetros óptimos de operação. Esta tese descreve o desenvolvimento do sensor polarimétrico, incluindo a integração dos componentes de óptica e electrónica, os algoritmos de processamento de sinal e um interface gráfico que facilita a programação de diversos parâmetros de operação e a calibração do sensor. Após a optimização dos parâmetros de operação verificou-se que o dispositivo mede a concentração da glicose em amostras com uma concentração de 8 mg/ml, com uma percentagem de erro inferior a 6% e um desvio padrão de 0,008o. Os resultados foram obtidos para uma amostra com percurso óptico de apenas 1 cm.
Resumo:
As redes de telecomunicações nos últimos anos têm sofrido um grande desenvolvimento a nível tecnológico. A prova disso é a revolução das redes sem fios, iniciada com a tecnologia GSM (Global System Mobile) nos anos 90, na qual eram apenas disponibilizados serviços de voz. Esta tendência continuou com o GPRS (General Packet Radio Service) onde se iniciaram os serviços de dados surgindo assim mais tarde, a tecnologia UMTS (Universal Mobile Telecommunications System). Com o aparecimento da nova tecnologia LTE (Long-Term Evolution), surgiu um novo paradigma consumista no mercado, facto que gerou um conflicto directo com as redes de banda larga (ADSL - Asymmetric Digital Subscriber Line) fornecidas anteriormente apenas pela rede fixa. A partir deste momento, estas duas tecnologias passaram a oferecer altos débitos de dados, eliminando assim esta diferenciação existente até então entre ambas. Esta foi a plataforma que despoletou o meu interesse em explorar a tecnologia LTE, mais precisamente, o planeamento de rádio em ambientes Indoor e Outdoor. Este planeamento requeria uma comparação prática e teórica, de forma a observar que a tecnologia reflectia os valores estipulados na norma LTE. Como método de comparação foi utilizada uma ferramenta de planeamento de redes móveis, gentilmente disponibilizada pela Alcatel-Lucent para o tipo de ambiente outdoor em estudo, para o indoor não foi efectuado simulação, por indisponibilidade da ferramenta. Após a configuração do sistema de rádio foi efectuada a recolha de dados no terreno através de drive-testes. Findo esta fase, procedeu-se ao pós-processamento e análise dos dados recolhidos, por forma a ser possível estabelecer a comparação entre o planeamento teórico efectuado através da ferramenta de planeamento e os dados capturados no terreno. Os resultados obtidos demonstram que a cobertura preconizada no caso Outdoor estavam de acordo com o planeamento efectuado, uma vez que os dados medidos no terreno coincidiram com os valores simulados, apenas com um desvio mínimo dentro da margem de tolerância. No que respeita ao indoor verificou-se que as medidas estavam de acordo com o estipulado na norma. Como conclusão, confirmou-se a validade das ferramentas e da metodologia utilizada.
Resumo:
Os grandes desenvolvimentos da última década nas tecnologias de informação e de comunicação alteraram por completo os fluxos de informação, assim como a noção de tempo e de espaço. O aparecimento da Internet, do correio electrónico e das novas linguagens informáticas contribuíram para a democratização do relatório financeiro electrónico. Neste trabalho é abordado o impacto nas organizações da revolução das tecnologias de informação e da Era da Informação em que vivemos. A Internet está a alterar a política informativa das empresas em todo o mundo. Praticamente em todos os países desenvolvidos as empresas estão a utilizar, em maior ou menor escala, a Internet como meio de divulgação universal da sua informação financeira. A interactividade que permite este meio de comunicação, as ferramentas multimédia que facilitam a sua compreensão, o seu processamento e a sua distribuição, para além da facilidade no acesso de um volume de informação, até agora impensável e a um custo reduzido, são algumas das suas principais vantagens. Por último, é apresentado um estudo empírico com o objectivo de analisar a situação actual do relato financeiro via Internet em Portugal, investigando a tendência das 250 empresas portuguesas, mais rentáveis, no que se refere à organização e à informação financeira divulgada nos seus websites.
Resumo:
Um dos maiores desafios tecnológicos no presente é o de se conseguir gerar e manter, de uma maneira eficiente e consistente, uma base de dados de objectos multimédia, em particular, de imagens. A necessidade de desenvolver métodos de pesquisa automáticos baseados no conteúdo semântico das imagens tornou-se de máxima importância. MPEG-7 é um standard que descreve o contudo dos dados multimédia que suportam estes requisitos operacionais. Adiciona um conjunto de descritores audiovisuais de baixo nível. O histograma é a característica mais utilizada para representar as características globais de uma imagem. Neste trabalho é usado o “Edge Histogram Descriptor” (EHD), que resulta numa representação de baixo nível que permite a computação da similaridade entre imagens. Neste trabalho, é obtida uma caracterização semântica da imagem baseada neste descritor usando dois métodos da classificação: o algoritmo k Nearest Neighbors (k-NN) e uma Rede Neuronal (RN) de retro propagação. No algoritmo k-NN é usada a distância Euclidiana entre os descritores de duas imagens para calcular a similaridade entre imagens diferentes. A RN requer um processo de aprendizagem prévia, que inclui responder correctamente às amostras do treino e às amostras de teste. No fim deste trabalho, será apresentado um estudo sobre os resultados dos dois métodos da classificação.
Resumo:
OBJETIVO: Avaliar o risco crônico da ingestão de pesticidas pela dieta, em compostos registrados no Brasil para uso agrícola até 1999. MÉTODOS: Foi calculada a Ingestão Diária Máxima Teórica (IDMT) para cada pesticida, utilizando limites máximos de resíduos estabelecidos pela legislação brasileira e dados de consumo alimentar. A caracterização do risco foi feita comparando-se a IDMT com as doses diárias aceitáveis (IDA) de vários países e do Codex Alimentarius. RESULTADOS: A IDTM ultrapassou a IDA (%IDA>100) em pelo menos uma região metropolitana brasileira para 23 pesticidas. Dezesseis compostos com maior %IDA são inseticidas organofosforados, sendo o paration metílico o composto cuja ingestão mais excedeu o parâmetro toxicológico (%IDA N=9.300). O arroz, o feijão, as frutas cítricas e o tomate foram os alimentos que mais contribuíram para a ingestão. Dos compostos que apresentaram maior risco, apenas 6 foram registrados de acordo com o Decreto 98.816/90, que dispõe sobre o uso de pesticidas no País. CONCLUSÕES: Os compostos identificados como sendo de potencial risco de exposição crônica para a população brasileira, e os alimentos que mais contribuíram para a sua ingestão, devem ser priorizados pelos órgãos de saúde em programas de monitoramento de resíduos de pesticidas. Adicionalmente, dados sobre resíduos em alimentos prontos para o consumo, fatores de processamento e dados sobre consumo alimentar devem ser gerados para possibilitar o refinamento do estudo.
Resumo:
Uma rede neuronal artificial consiste no processamento de elementos (análogos aos neurónios do sistema neuronal biológico) inter conectados em rede. As redes neuronais artificiais possuem duas grandes forças: por um lado, são instrumentos poderosos na modelização e compreensão do comportamento cognitivo humano; por outro, têm fortes propriedades de reconhecimento de padrões, sendo capazes de reconhecer padrões mesmo entre dados variáveis, ambíguos e confusos (Refenes, 1995, citado por Koskivaara, 2000). Por esta razão, a aplicação desta nova tecnologia à auditoria tem vindo a acentuar-se. O objectivo deste trabalho consiste em apresentar os fundamentos das redes neuronais artificiais, bem como as principais áreas de aplicação à auditoria. Entre estas descata-se a detecção de erros materialmente relevantes. Os auditores estabelecem a natureza, extensão, profundidade e oportunidade dos procedimentos de auditoria com base na investigação resultante de flutuações e relações que sejam inconsistentes com outra informação relevante ou que se desviem de quantias previstas. Ora, os modelos de rede neuronais permitem captar padrões relevantes detectados na informação financeira, estabelecendo correlações entre os dados dificilmente percepcionadas pelos meios tradicionalmente utilizados pelos auditores. Outras áreas da auditoria em que as redes neuronais se têm mostrado instrumentos válidos de auxílio ao julgamento dos auditores são a avaliação do risco de gestão fraudulenta, a avaliação do princípio da continuidade e a avaliação do controlo interno da entidade auditada.
Resumo:
Mestrado em Radiações Aplicadas às Tecnologias da Saúde. Área de especialização: Ressonância Magnética
Resumo:
Pretende-se, utilizando o Modelo da Elasticidade Linear em freeFEM++, determinar os esforços e deslocamentos de um edifício alto submetido apenas à acção do peso próprio da estrutura e, efectuar estudos comparativos dos resultados obtidos com o SAP2000. O trabalho inicia-se com a introdução da teoria da elasticidade linear, onde são feitas as deduções das Equações de Compatibilidade, Equilíbrio e as Leis Constitutivas, de modo a resolver numericamente o problema de Elasticidade Linear mencionado. O método de elementos finitos será implementado em freeFEM++ com auxílio do GMSH que é uma poderosa ferramenta com capacidade de gerar automaticamente malhas tridimensionais de elementos finitos e com relativa facilidade de pré e pós-processamento.
Resumo:
OBJETIVO: Avaliar as repercussões do trabalho de mulheres e homens analistas de sistemas na saúde. MÉTODOS: Trata-se de estudo exploratório de delineamento transversal, abrangendo 553 analistas de duas empresas de processamento de dados da região metropolitana de São Paulo. Foram realizadas análises ergonômicas do trabalho, entrevistas semi-estruturadas e preenchimento de questionários para auto-aplicação. A análise dos dados baseou-se em tabelas de contingência com qui-quadrado a 5% de significância e razões de prevalência e seus intervalos de confiança segundo gênero. RESULTADOS: As mulheres constituíram 40,7% do grupo estudado, sendo mais jovens que os homens. A presença de filhos foi maior entre os homens, embora o tempo diário dedicado às tarefas domésticas tenha sido maior entre as mulheres. Observou-se predomínio dos homens nas funções de chefia. Fatores de incômodo, com freqüência semelhante entre homens e mulheres, foram: sobrecarga de trabalho devido a prazos curtos; alto grau de responsabilidade; exigência mental do trabalho; e complexidade da tarefa. Fatores de incômodo predominantes em mulheres foram: postura desconfortável; maior exposição ao computador; e presença de equipamento obsoleto. As mulheres relataram maior freqüência de sintomas visuais, musculares e relacionados a estresse; maior insatisfação com o trabalho; maior fadiga física e mental. CONCLUSÕES: O estudo sugere que as repercussões na saúde das analistas de sistemas estão associadas às exigências do trabalho e ao papel da mulher na sociedade. Os resultados destacam a importância de estudos sobre saúde, trabalho e gênero, em analisar a interseção entre a esfera produtiva e a doméstica.
Resumo:
O presente trabalho consiste na implementação em hardware de unidades funcionais dedicadas e optimizadas, para a realização das operações de codificação e descodificação, definidas na norma de codificação com perda Joint Photographic Experts Group (JPEG), ITU-T T.81 ISO/IEC 10918-1. Realiza-se um estudo sobre esta norma de forma a caracterizar os seus principais blocos funcionais. A finalidade deste estudo foca-se na pesquisa e na proposta de optimizações, de forma a minimizar o hardware necessário para a realização de cada bloco, de modo a que o sistema realizado obtenha taxas de compressão elevadas, minimizando a distorção obtida. A redução de hardware de cada sistema, codificador e descodificador, é conseguida à custa da manipulação das equações dos blocos Forward Discrete Cosine Transform (FDCT) e Quantificação (Q) e dos blocos Forward Discrete Cosine Transform (IDCT) e Quantificação Inversa (IQ). Com as conclusões retiradas do estudo e através da análise de estruturas conhecidas, descreveu-se cada bloco em Very-High-Speed Integrated Circuits (VHSIC) Hardware Description Language (VHDL) e fez-se a sua síntese em Field Programmable Gate Array (FPGA). Cada sistema implementado recorre à execução de cada bloco em paralelo de forma a optimizar a codificação/descodificação. Assim, para o sistema codificador, será realizada a operação da FDCT e Quantificação sobre duas matrizes diferentes e em simultâneo. O mesmo sucede para o sistema descodificador, composto pelos blocos Quantificação Inversa e IDCT. A validação de cada bloco sintetizado é executada com recurso a vectores de teste obtidos através do estudo efectuado. Após a integração de cada bloco, verificou-se que, para imagens greyscale de referência com resolução de 256 linhas por 256 colunas, é necessário 820,5 μs para a codificação de uma imagem e 830,5 μs para a descodificação da mesma. Considerando uma frequência de trabalho de 100 MHz, processam-se aproximadamente 1200 imagens por segundo.
Resumo:
Introdução – A mamografia é o principal método de diagnóstico por imagem utilizado no rastreio e diagnóstico do cancro da mama, sendo a modalidade de imagem recomendada em vários países da Europa e Estados Unidos para utilização em programas de rastreio. A implementação da tecnologia digital causou alterações na prática da mamografia, nomeadamente a necessidade de adaptar os programas de controlo de qualidade. Objetivos – Caracterizar a tecnologia instalada para mamografia em Portugal e as práticas adotadas na sua utilização pelos profissionais de saúde envolvidos. Concluir sobre o nível de harmonização das práticas em mamografia em Portugal e a conformidade com as recomendações internacionais. Identificar oportunidades para otimização que permitam assegurar a utilização eficaz e segura da tecnologia. Metodologia – Pesquisa e recolha de dados sobre a tecnologia instalada, fornecidos por fontes governamentais, prestadores de serviços de mamografia e indústria. Construção de três questionários, orientados ao perfil do médico radiologista, técnico de radiologia com atividade em mamografia digital e técnico de radiologia coordenador. Os questionários foram aplicados em 65 prestadores de serviços de mamografia selecionados com base em critérios de localização geográfica, tipo de tecnologia instalada e perfil da instituição. Resultados – Foram identificados 441 sistemas para mamografia em Portugal. A tecnologia mais frequente (62%) e vulgarmente conhecida por radiografia computorizada (computed radiography) é constituída por um detector (image plate) de material fotoestimulável inserido numa cassete de suporte e por um sistema de processamento ótico. A maioria destes sistemas (78%) está instalada em prestadores privados. Aproximadamente 12% dos equipamentos instalados são sistemas para radiografia digital direta (Direct Digital Radiography – DDR). Os critérios para seleção dos parâmetros técnicos de exposição variam, observando-se que em 65% das instituições são adotadas as recomendações dos fabricantes do equipamento. As ferramentas de pós-processamento mais usadas pelos médicos radiologistas são o ajuste do contraste e brilho e magnificação total e/ou localizada da imagem. Quinze instituições (em 19) têm implementado um programa de controlo de qualidade. Conclusões – Portugal apresenta um parque de equipamentos heterogéneo que inclui tecnologia obsoleta e tecnologia “topo de gama”. As recomendações/guidelines (europeias ou americanas) não são adotadas formalmente na maioria das instituições como guia para fundamentação das práticas em mamografia, dominando as recomendações dos fabricantes do equipamento. Foram identificadas, pelos técnicos de radiologia e médicos radiologistas, carências de formação especializada, nomeadamente nas temáticas da intervenção mamária, otimização da dose e controlo da qualidade. A maioria dos inquiridos concorda com a necessidade de certificação da prática da mamografia em Portugal e participaria num programa voluntário. ABSTRACT - Introduction – Mammography is the gold standard for screening and imaging diagnosis of breast disease. It is the imaging modality recommended by screening programs in various countries in Europe and the United States. The implementation of the digital technology promoted changes in mammography practice and triggered the need to adjust quality control programs. Aims –Characterize the technology for mammography installed in Portugal. Assess practice in use in mammography and its harmonization and compliance to international guidelines. Identify optimization needs to promote an effective and efficient use of digital mammography to full potential. Methodology – Literature review was performed. Data was collected from official sources (governmental bodies, mammography healthcare providers and medical imaging industry) regarding the number and specifications of mammography equipment installed in Portugal. Three questionnaires targeted at radiologists, breast radiographers and the chief-radiographer were designed for data collection on the technical and clinical practices in mammography. The questionnaires were delivered in a sample of 65 mammography providers selected according to geographical criteria, type of technology and institution profile. Results – Results revealed 441 mammography systems installed in Portugal. The most frequent (62%) technology type are computerized systems (CR) mostly installed in the private sector (78%). 12% are direct radiography systems (DDR). The criteria for selection of the exposure parameters differ between the institutions with the majority (65%) following the recommendations from the manufacturers. The use of available tools for post-processing is limited being the most frequently reported tools used the contrast/ brightness and Zoom or Pan Magnification tools. Fifteen participant institutions (out of 19) have implemented a quality control programme. Conclusions – The technology for mammography in Portugal is heterogeneous and includes both obsolete and state of the art equipment. International guidelines (European or American) are not formally implemented and the manufacturer recommendations are the most frequently used guidance. Education and training needs were identified amongst the healthcare professionals (radiologists and radiographers) with focus in the areas of mammography intervention, patient dose optimization and quality control. The majority of the participants agree with the certification of mammography in Portugal.
Resumo:
Mestrado em Radiações Aplicadas às Tecnologias da Saúde. Especialização: Ressonância Magnética.