999 resultados para Processamento de catálogos de estrelas
Resumo:
O Programa Nacional de Avaliação Externa da Qualidade (PNAEQ) foi criado em 1978 como sendo uma das atribuições do Instituto Nacional de Saúde Doutor Ricardo Jorge (INSA). A sua missão é promover, organizar e coordenar programas de avaliação externa da qualidade (AEQ) para laboratórios que exerçam atividade no setor da saúde. O primeiro programa de AEQ do PNAEQ para avaliação da Fase Pré-Analítica foi distribuído em 2007. Os ensaios são pluridisciplinares, podendo incluir o envio de amostras para avaliação das condições para processamento (aceitação ou rejeição, preparação, acondicionamento), a simulação de requisições médicas, a resposta a questionários, a interpretação de casos-estudo, o levantamento de dados (auditorias ou monitorização de indicadores) ou a realização de chamadas anónimas (“cliente mistério”). O PNAEQ disponibiliza ainda 4 programas em colaboração com a Labquality (Flebotomia e POCT, Química Clínica, Microbiologia e Gases no Sangue) e 1 programa com a ECAT (Hemostase). Em 2015 e 2016, o objetivo dos programas da Fase Pré-Analítica do PNAEQ foi proporcionar o envolvimento do laboratório no processo de avaliação e monitorização da fase pré-analítica, conferindo-lhe ferramentas que lhe permitam realizar a sua autoavaliação. A fase pré-analítica é a que absorve o maior número de erros na análise de amostras biológicas, representando 40% a 70% de todas as falhas ocorridas no processamento analítico (Codagnone et al, 2014). A principal razão está na dificuldade em controlar as variáveis pré-analíticas , uma vez que esta fase envolve inúmeras atividades não automatizadas como a colheita, o manuseamento, o transporte e a preparação das amostras.
Resumo:
O trabalho apresentado por este documento aborda os problemas que advêm da necessidade de integração de aplicações, desenvolvidas em diferentes instantes no tempo, por diferentes equipas de trabalho, que para enriquecer os processos de negócio necessitam de comunicar entre si. A integração das aplicações tem de ser feita de forma opaca para estas, sendo disponibilizada por uma peça de software genérica, robusta e sem custos para as equipas desenvolvimento, na altura da integração. Esta integração tem de permitir que as aplicações comuniquem utilizando os protocolos que desejarem. Este trabalho propõe um middleware orientado a mensagens como solução para o problema identificado. A solução apresentada por este trabalho disponibiliza a comunicação entre aplicações que utilizam diferentes protocolos, permite ainda o desacoplamento temporal, espacial e de sincronismo na comunicação das aplicações. A implementação da solução tem base num sistema publish/subscribe orientado ao conteúdo e tem de lidar com as maiores exigências computacionais que este tipo de sistema acarta, sendo que a utilização deste se justifica com o enriquecimento da semântica de subscrição de eventos. Esta implementação utiliza uma arquitectura semi-distribuída, com o objectivo de aumentar a escalabilidade do sistema. A utilização da arquitectura semi-distribuída implica que a implementação da solução tem de lidar com o encaminhamento de eventos e divulgação das subscrições, pelos vários servidores de eventos. A implementação da solução disponibiliza garantias de persistência, processamento transaccional e tolerância a falhas, assim como transformação de eventos entre os diversos protocolos. A extensibilidade da solução é conseguida à custa de um sistema de pluggins que permite a adição de suporte a novos protocolos de comunicação. Os protocolos suportados pela implementação final do trabalho são RestMS e TCP.
Resumo:
A presente dissertação apresenta o desenvolvimento de um medidor de componentes passivos RLC. Este medidor baseia-se num protótipo desenvolvido para possibilitar a medição da impedância de um dispositivo em teste. Tendo uma carta de aquisição de sinal como interface, o protótipo comunica com um computador que controla todo o processo de medição desde a aquisição e processamento de sinais ao cálculo e visualização dos parâmetros. A topologia de medição implementada é a da ponte auto-balanceada e no processamento recorre-se ao método da desmodulação síncrona ou coerente. A sua viabilidade é suportada por um estudo teórico prévio, pela discussão das opções tomadas no projecto e pelos resultados obtidos através do algoritmo desenvolvido utilizando o software LabVIEW de programação gráfica.
Resumo:
Esta tese tem como principal objectivo a investigação teórica e experimental do desempenho de um sensor polarimétrico baseado num cristal líquido para medição da concentração de glicose. Recentemente uma série de sensores polarimétricos baseados em cristais líquidos foram propostos na literatura e receberam considerável interesse devido as suas características únicas. De facto, em comparação com outros moduladores electro-ópticos, o cristal líquido funciona com tensões mais baixas, tem baixo consumo de energia e maior ângulo de rotação. Além disso, este tipo de polarímetro pode ter pequenas dimensões que é uma característica interessante para dispositivos portáteis e compactos. Existem por outro lado algumas desvantagens, nomeadamente o facto do desempenho do polarímetro ser fortemente dependente do tipo de cristal líquido e da tensão a ele aplicada o que coloca desafios na escolha dos parâmetros óptimos de operação. Esta tese descreve o desenvolvimento do sensor polarimétrico, incluindo a integração dos componentes de óptica e electrónica, os algoritmos de processamento de sinal e um interface gráfico que facilita a programação de diversos parâmetros de operação e a calibração do sensor. Após a optimização dos parâmetros de operação verificou-se que o dispositivo mede a concentração da glicose em amostras com uma concentração de 8 mg/ml, com uma percentagem de erro inferior a 6% e um desvio padrão de 0,008o. Os resultados foram obtidos para uma amostra com percurso óptico de apenas 1 cm.
Resumo:
As redes de telecomunicações nos últimos anos têm sofrido um grande desenvolvimento a nível tecnológico. A prova disso é a revolução das redes sem fios, iniciada com a tecnologia GSM (Global System Mobile) nos anos 90, na qual eram apenas disponibilizados serviços de voz. Esta tendência continuou com o GPRS (General Packet Radio Service) onde se iniciaram os serviços de dados surgindo assim mais tarde, a tecnologia UMTS (Universal Mobile Telecommunications System). Com o aparecimento da nova tecnologia LTE (Long-Term Evolution), surgiu um novo paradigma consumista no mercado, facto que gerou um conflicto directo com as redes de banda larga (ADSL - Asymmetric Digital Subscriber Line) fornecidas anteriormente apenas pela rede fixa. A partir deste momento, estas duas tecnologias passaram a oferecer altos débitos de dados, eliminando assim esta diferenciação existente até então entre ambas. Esta foi a plataforma que despoletou o meu interesse em explorar a tecnologia LTE, mais precisamente, o planeamento de rádio em ambientes Indoor e Outdoor. Este planeamento requeria uma comparação prática e teórica, de forma a observar que a tecnologia reflectia os valores estipulados na norma LTE. Como método de comparação foi utilizada uma ferramenta de planeamento de redes móveis, gentilmente disponibilizada pela Alcatel-Lucent para o tipo de ambiente outdoor em estudo, para o indoor não foi efectuado simulação, por indisponibilidade da ferramenta. Após a configuração do sistema de rádio foi efectuada a recolha de dados no terreno através de drive-testes. Findo esta fase, procedeu-se ao pós-processamento e análise dos dados recolhidos, por forma a ser possível estabelecer a comparação entre o planeamento teórico efectuado através da ferramenta de planeamento e os dados capturados no terreno. Os resultados obtidos demonstram que a cobertura preconizada no caso Outdoor estavam de acordo com o planeamento efectuado, uma vez que os dados medidos no terreno coincidiram com os valores simulados, apenas com um desvio mínimo dentro da margem de tolerância. No que respeita ao indoor verificou-se que as medidas estavam de acordo com o estipulado na norma. Como conclusão, confirmou-se a validade das ferramentas e da metodologia utilizada.
Resumo:
O Professor Artur Santos é por muitos recordado pela qualidade inquestionável da docência que exerceu no Conservatório Nacional de Lisboa. A sua carreira profissional foi mais vasta, desenvolvendo-se no âmbito da música erudita como pianista, compositor e professor e, no da música tradicional, como etnomusicólogo. O artigo agora publicado tem o mesmo título da Dissertação de Mestrado em Ciências Musicais (2001), orientada pela Profª. Drª. Salwa Castelo Branco. Este trabalho de investigação permitiu um conhecimento aprofundado do trabalho etnomusicológico que Artur Santos realizou, incluindo documentação escrita, gravações sonoras, fotografias e filmes etnográficos, na sua maioria inédita, para além das colecções de discos (Beira Baixa e Beira Alta, Ilhas Terceira, de S. Miguel e de Santa Maria) e catálogos de exposições editados (Angola e Ilha de Santa Maria). A documentação que produziu, o seu empenho em institucionalizar a etnomusicologia em Portugal, a divulgação internacional que fez da Música Tradicional Portuguesa e o reconhecimento que os seus trabalhos tiveram a nível nacional e internacional, destacam-no como precursor da moderna etnomusicologia em Portugal.
Resumo:
Os grandes desenvolvimentos da última década nas tecnologias de informação e de comunicação alteraram por completo os fluxos de informação, assim como a noção de tempo e de espaço. O aparecimento da Internet, do correio electrónico e das novas linguagens informáticas contribuíram para a democratização do relatório financeiro electrónico. Neste trabalho é abordado o impacto nas organizações da revolução das tecnologias de informação e da Era da Informação em que vivemos. A Internet está a alterar a política informativa das empresas em todo o mundo. Praticamente em todos os países desenvolvidos as empresas estão a utilizar, em maior ou menor escala, a Internet como meio de divulgação universal da sua informação financeira. A interactividade que permite este meio de comunicação, as ferramentas multimédia que facilitam a sua compreensão, o seu processamento e a sua distribuição, para além da facilidade no acesso de um volume de informação, até agora impensável e a um custo reduzido, são algumas das suas principais vantagens. Por último, é apresentado um estudo empírico com o objectivo de analisar a situação actual do relato financeiro via Internet em Portugal, investigando a tendência das 250 empresas portuguesas, mais rentáveis, no que se refere à organização e à informação financeira divulgada nos seus websites.
Resumo:
Um dos maiores desafios tecnológicos no presente é o de se conseguir gerar e manter, de uma maneira eficiente e consistente, uma base de dados de objectos multimédia, em particular, de imagens. A necessidade de desenvolver métodos de pesquisa automáticos baseados no conteúdo semântico das imagens tornou-se de máxima importância. MPEG-7 é um standard que descreve o contudo dos dados multimédia que suportam estes requisitos operacionais. Adiciona um conjunto de descritores audiovisuais de baixo nível. O histograma é a característica mais utilizada para representar as características globais de uma imagem. Neste trabalho é usado o “Edge Histogram Descriptor” (EHD), que resulta numa representação de baixo nível que permite a computação da similaridade entre imagens. Neste trabalho, é obtida uma caracterização semântica da imagem baseada neste descritor usando dois métodos da classificação: o algoritmo k Nearest Neighbors (k-NN) e uma Rede Neuronal (RN) de retro propagação. No algoritmo k-NN é usada a distância Euclidiana entre os descritores de duas imagens para calcular a similaridade entre imagens diferentes. A RN requer um processo de aprendizagem prévia, que inclui responder correctamente às amostras do treino e às amostras de teste. No fim deste trabalho, será apresentado um estudo sobre os resultados dos dois métodos da classificação.
Resumo:
OBJETIVO: Avaliar o risco crônico da ingestão de pesticidas pela dieta, em compostos registrados no Brasil para uso agrícola até 1999. MÉTODOS: Foi calculada a Ingestão Diária Máxima Teórica (IDMT) para cada pesticida, utilizando limites máximos de resíduos estabelecidos pela legislação brasileira e dados de consumo alimentar. A caracterização do risco foi feita comparando-se a IDMT com as doses diárias aceitáveis (IDA) de vários países e do Codex Alimentarius. RESULTADOS: A IDTM ultrapassou a IDA (%IDA>100) em pelo menos uma região metropolitana brasileira para 23 pesticidas. Dezesseis compostos com maior %IDA são inseticidas organofosforados, sendo o paration metílico o composto cuja ingestão mais excedeu o parâmetro toxicológico (%IDA N=9.300). O arroz, o feijão, as frutas cítricas e o tomate foram os alimentos que mais contribuíram para a ingestão. Dos compostos que apresentaram maior risco, apenas 6 foram registrados de acordo com o Decreto 98.816/90, que dispõe sobre o uso de pesticidas no País. CONCLUSÕES: Os compostos identificados como sendo de potencial risco de exposição crônica para a população brasileira, e os alimentos que mais contribuíram para a sua ingestão, devem ser priorizados pelos órgãos de saúde em programas de monitoramento de resíduos de pesticidas. Adicionalmente, dados sobre resíduos em alimentos prontos para o consumo, fatores de processamento e dados sobre consumo alimentar devem ser gerados para possibilitar o refinamento do estudo.
Resumo:
Uma rede neuronal artificial consiste no processamento de elementos (análogos aos neurónios do sistema neuronal biológico) inter conectados em rede. As redes neuronais artificiais possuem duas grandes forças: por um lado, são instrumentos poderosos na modelização e compreensão do comportamento cognitivo humano; por outro, têm fortes propriedades de reconhecimento de padrões, sendo capazes de reconhecer padrões mesmo entre dados variáveis, ambíguos e confusos (Refenes, 1995, citado por Koskivaara, 2000). Por esta razão, a aplicação desta nova tecnologia à auditoria tem vindo a acentuar-se. O objectivo deste trabalho consiste em apresentar os fundamentos das redes neuronais artificiais, bem como as principais áreas de aplicação à auditoria. Entre estas descata-se a detecção de erros materialmente relevantes. Os auditores estabelecem a natureza, extensão, profundidade e oportunidade dos procedimentos de auditoria com base na investigação resultante de flutuações e relações que sejam inconsistentes com outra informação relevante ou que se desviem de quantias previstas. Ora, os modelos de rede neuronais permitem captar padrões relevantes detectados na informação financeira, estabelecendo correlações entre os dados dificilmente percepcionadas pelos meios tradicionalmente utilizados pelos auditores. Outras áreas da auditoria em que as redes neuronais se têm mostrado instrumentos válidos de auxílio ao julgamento dos auditores são a avaliação do risco de gestão fraudulenta, a avaliação do princípio da continuidade e a avaliação do controlo interno da entidade auditada.
Resumo:
Relatório de estágio realizado por: Tiago André Nogueira da Cruz Trabalho orientado pela Mestre Célia Sousa
Resumo:
Mestrado em Radiações Aplicadas às Tecnologias da Saúde. Área de especialização: Ressonância Magnética
Resumo:
Pretende-se, utilizando o Modelo da Elasticidade Linear em freeFEM++, determinar os esforços e deslocamentos de um edifício alto submetido apenas à acção do peso próprio da estrutura e, efectuar estudos comparativos dos resultados obtidos com o SAP2000. O trabalho inicia-se com a introdução da teoria da elasticidade linear, onde são feitas as deduções das Equações de Compatibilidade, Equilíbrio e as Leis Constitutivas, de modo a resolver numericamente o problema de Elasticidade Linear mencionado. O método de elementos finitos será implementado em freeFEM++ com auxílio do GMSH que é uma poderosa ferramenta com capacidade de gerar automaticamente malhas tridimensionais de elementos finitos e com relativa facilidade de pré e pós-processamento.
Resumo:
OBJETIVO: Avaliar as repercussões do trabalho de mulheres e homens analistas de sistemas na saúde. MÉTODOS: Trata-se de estudo exploratório de delineamento transversal, abrangendo 553 analistas de duas empresas de processamento de dados da região metropolitana de São Paulo. Foram realizadas análises ergonômicas do trabalho, entrevistas semi-estruturadas e preenchimento de questionários para auto-aplicação. A análise dos dados baseou-se em tabelas de contingência com qui-quadrado a 5% de significância e razões de prevalência e seus intervalos de confiança segundo gênero. RESULTADOS: As mulheres constituíram 40,7% do grupo estudado, sendo mais jovens que os homens. A presença de filhos foi maior entre os homens, embora o tempo diário dedicado às tarefas domésticas tenha sido maior entre as mulheres. Observou-se predomínio dos homens nas funções de chefia. Fatores de incômodo, com freqüência semelhante entre homens e mulheres, foram: sobrecarga de trabalho devido a prazos curtos; alto grau de responsabilidade; exigência mental do trabalho; e complexidade da tarefa. Fatores de incômodo predominantes em mulheres foram: postura desconfortável; maior exposição ao computador; e presença de equipamento obsoleto. As mulheres relataram maior freqüência de sintomas visuais, musculares e relacionados a estresse; maior insatisfação com o trabalho; maior fadiga física e mental. CONCLUSÕES: O estudo sugere que as repercussões na saúde das analistas de sistemas estão associadas às exigências do trabalho e ao papel da mulher na sociedade. Os resultados destacam a importância de estudos sobre saúde, trabalho e gênero, em analisar a interseção entre a esfera produtiva e a doméstica.
Resumo:
O presente trabalho consiste na implementação em hardware de unidades funcionais dedicadas e optimizadas, para a realização das operações de codificação e descodificação, definidas na norma de codificação com perda Joint Photographic Experts Group (JPEG), ITU-T T.81 ISO/IEC 10918-1. Realiza-se um estudo sobre esta norma de forma a caracterizar os seus principais blocos funcionais. A finalidade deste estudo foca-se na pesquisa e na proposta de optimizações, de forma a minimizar o hardware necessário para a realização de cada bloco, de modo a que o sistema realizado obtenha taxas de compressão elevadas, minimizando a distorção obtida. A redução de hardware de cada sistema, codificador e descodificador, é conseguida à custa da manipulação das equações dos blocos Forward Discrete Cosine Transform (FDCT) e Quantificação (Q) e dos blocos Forward Discrete Cosine Transform (IDCT) e Quantificação Inversa (IQ). Com as conclusões retiradas do estudo e através da análise de estruturas conhecidas, descreveu-se cada bloco em Very-High-Speed Integrated Circuits (VHSIC) Hardware Description Language (VHDL) e fez-se a sua síntese em Field Programmable Gate Array (FPGA). Cada sistema implementado recorre à execução de cada bloco em paralelo de forma a optimizar a codificação/descodificação. Assim, para o sistema codificador, será realizada a operação da FDCT e Quantificação sobre duas matrizes diferentes e em simultâneo. O mesmo sucede para o sistema descodificador, composto pelos blocos Quantificação Inversa e IDCT. A validação de cada bloco sintetizado é executada com recurso a vectores de teste obtidos através do estudo efectuado. Após a integração de cada bloco, verificou-se que, para imagens greyscale de referência com resolução de 256 linhas por 256 colunas, é necessário 820,5 μs para a codificação de uma imagem e 830,5 μs para a descodificação da mesma. Considerando uma frequência de trabalho de 100 MHz, processam-se aproximadamente 1200 imagens por segundo.