999 resultados para Matematica - Processamento de dados


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Universidade Estadual de Campinas. Faculdade de Educação Física

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A desintegração radioativa é um processo aleatório e a estimativa de todas as medidas associadas é governada por leis estatísticas. Os perfis de taxas de contagem são sempre "ruidosos" quando utilizados períodos curtos como um segundo para cada medida. Os filtros utilizados e posteriormente as correções feitas no processamento atual de dados gamaespectrométricos não são suficientes para remover ou diminuir, consideravelmente, o ruído oriundo do espectro. Dois métodos estatísticos que atuam diretamente nos dados coletados, isto é, nos espectros, vêm sendo sugeridos na literatura para remover e minimizar estes ruídos remanescentes o Noise-Adjusted Singular Value Decomposition - NASVD e Maximum Noise Fraction - MNF. Estes métodos produzem uma redução no ruído de forma significativa. Neste trabalho eles foram implementados dentro do ambiente de processamento do software Oasis Montaj e aplicados na área compreendida pelos blocos I e II do levantamento aerogeofísico que recobre a porção oeste da Província Mineral do Tapajós, entre os Estados do Pará e Amazonas. Os dados filtrados e não-filtrados com as técnicas de NASVD e MNF foram processados com os parâmetros e constantes fornecidos pela empresa Lasa Engenharia e Prospecções S.A., sendo estes comparados. Os resultados da comparação entre perfis e mapas apresentaram-se de forma promissora, pois houve um ganho na resolução dos produtos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este artigo descreve uma nova classificação de alimentos baseada na extensão e propósito do processamento industrial usado na sua produção. Três grupos são definidos: alimentos não processados ou minimamente processados (grupo 1), alimentos processados utilizados como ingredientes de preparações culinárias ou pela indústria de alimentos (grupo 2), e produtos alimentícios ultra-processados (grupo 3). O uso da classificação é ilustrado aplicando-a a dados coletados por Pesquisa de Orçamentos Familiares conduzida em 2002/2003 em uma amostra probabilística de 48.470 domicílios brasileiros. A disponibilidade diária foi de 1.792kcal/capita, sendo 42,5por cento de alimentos do grupo 1, 37,5por cento do grupo 2 e 20por cento do grupo 3. A contribuição do grupo 3 aumentou com a renda familiar, correspondendo a um terço do total calórico nos domicílios mais afluentes. Discute-se o impacto sobre a qualidade geral da dieta, padrões de alimentação e condições de saúde que poderia ocorrer com a substituição de alimentos do grupo 1 e ingredientes do grupo 2 por produtos alimentícios do grupo 3

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A resolução temporal é essencial na percepção acústica da fala, podendo estar alterada nos distúrbios auditivos gerando prejuízos no desenvolvimento da linguagem. OBJETIVO: Comparar a resolução temporal de crianças com audição normal, perda auditiva condutiva e distúrbios do processamento auditivo. CASUÍSTICA E MÉTODO: A amostra foi de 31 crianças de 07 a 10 anos, divididas em três grupos: G1: 12 com audição normal, G2: sete com perda auditiva condutiva e G3: 12 com distúrbio do processamento auditivo. Os procedimentos de seleção foram: questionário aos responsáveis, avaliação audiológica e do processamento auditivo. O procedimento de pesquisa foi o teste de detecção de intervalos no silêncio realizado a 50 dB NS acima da média de 500, 1000 e 2000Hz na condição binaural em 500, 1000, 2000 e 4000Hz. Na análise dos dados foi utilizado o Teste de Wilcoxon, com nível de significância de 1%. RESULTADO: Observou-se que houve diferença entre os G1 e G2 e entre os G1 e G3 em todas as freqüências. Por outro lado, esta diferença não foi observada entre os G2 e G3. CONCLUSÃO A perda auditiva condutiva e o distúrbio do processamento auditivo têm influência no limiar de detecção de intervalos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução – Os estudos Gated – Single Photon Emission Computed Tomography (SPECT) são uma das técnicas de imagiologia cardíaca que mais evoluiu nas últimas décadas. Para a análise das imagens obtidas, a utilização de softwares de quantificação leva a um aumento da reprodutibilidade e exatidão das interpretações. O objetivo deste estudo consiste em avaliar, em estudos Gated-SPECT, a variabilidade intra e interoperador de parâmetros quantitativos de função e perfusão do miocárdio, obtidos com os softwares Quantitative Gated SPECT (QGS) e Quantitative Perfusion SPECT (QPS). Material e métodos – Recorreu-se a uma amostra não probabilística por conveniência de 52 pacientes, que realizaram estudos Gated-SPECT do miocárdio por razões clínicas e que integravam a base de dados da estação de processamento da Xeleris da ESTeSL. Os cinquenta e dois estudos foram divididos em dois grupos distintos: Grupo I (GI) de 17 pacientes com imagens com perfusão do miocárdio normal; Grupo II (GII) de 35 pacientes que apresentavam defeito de perfusão nas imagens Gated-SPECT. Todos os estudos foram processados 5 vezes por 4 operadores independentes (com experiência de 3 anos em Serviços de Medicina Nuclear com casuística média de 15 exames/semana de estudos Gated-SPECT). Para a avaliação da variabilidade intra e interoperador foi utilizado o teste estatístico de Friedman, considerando α=0,01. Resultados e discussão – Para todos os parâmetros avaliados, os respectivos valores de p não traduziram diferenças estatisticamente significativas (p>α). Assim, não foi verificada variabilidade intra ou interoperador significativa no processamento dos estudos Gated-SPECT do miocárdio. Conclusão – Os softwares QGS e QPS são reprodutíveis na quantificação dos parâmetros de função e perfusão avaliados, não existindo variabilidade introduzida pelo operador.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A necessidade de diminuir os consumos de energia, não só por questões financeiras mas também por questões ambientais, faz com que sejam feitos esforços no sentido da implementação de energias renováveis bem como da melhoria e expansão das soluções técnicas já conhecidas. Uma das maiores fontes de energia renovável, senão mesmo a maior, é a energia solar que, no futuro, terá uma contribuição muito significativa, quer na satisfação dos consumos energéticos, quer na racionalização da sua utilização, isto é, na melhoria da eficiência do consumo. O presente trabalho focou-se na procura de um sistema solar térmico para o pré-aquecimento da água quente a ser utilizada numa fábrica de curtumes, a empresa Curtumes Aveneda, Lda. Em simultâneo, desenvolveram-se e optimizaram-se processos de produtos específicos que o mercado exige actualmente, visando uma economia de recursos (matérias-primas, água e energia), objectivando sempre a sua viabilidade económica. No que respeita à procura do sistema solar térmico, inicialmente foram realizados levantamentos relativos ao consumo de água, quente e fria, na respectiva empresa. Esta avaliação focou-se em todos os sectores consumidores intensivos de água, tais como a ribeira, curtume e a tinturaria, excluindo o sector de acabamento uma vez que o consumo aqui é insignificante relativamente aos sectores citados anteriormente. Com base no levantamento efectuado foi dimensionado um sistema solar térmico para o pré aquecimento da água quente que conduz a uma economia anual de 107.808,3 kWh de energia térmica, representativa de 29% do consumo anual de energia térmica de aquecimento de água. Foi efectuada análise económica deste investimento que mostrou um índice de rentabilidade superior à unidade e um tempo de retorno do investimento de 9 anos. Desenvolveu-se com sucesso um produto de couro a partir de wet-blue, designado por crispado, produto normalmente produzido a partir da pele em tripa e muito difícil de obter a partir de wet-blue. Este produto caracteriza-se pela sua forma granular irregular e firme da pele. O processo desenvolvido foi ainda optimizado no sentido da redução do consumo de água e de energia. Tendo em conta a necessidade da empresa também se tentou melhorar as características do couro wet-white, muito solicitado actualmente, com resultados positivos no que respeita à temperatura de contracção do couro e às propriedades físico-mecânicas mas sem se atingir o principal objectivo que seria tornar a cor mais clara e mais pura. Foram desta forma dados contributos importantes para a empresa que, assim, dimensionou um sistema mais económico para o aquecimento de água que vai adoptar e ficou com um processo disponível para produzir um produto até então não conseguido.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Relatório do Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos últimos anos, o avanço da tecnologia e a miniaturização de diversos componentes de electrónica associados a novos conceitos têm permitido nascer novas ideias e projectos, que até há alguns anos não passariam de ficção científica. Talvez o exemplo mais acabado seja actualmente o smartphone, um pequeno bloco de hardware e software, com capacidade de processamento que ultrapassa várias vezes o dos computadores com uma dúzia de anos. Estas capacidades têm sido utilizadas em comunicações, blocos de notas, agendas e até entretenimento. No entanto, podem ser reutilizadas para ajudar a resolver algumas limitações/constrangimentos da actualidade. Dentro destes destacam-se a gestão de recursos escassos. Com efeito, o consumo de energia eléctrica tem aumentado como consequência directa do desenvolvimento global e aumento do número de aparelhos eléctricos. Uma percentagem significativa de energia eléctrica tem sido produzida através de recursos não-renováveis de energia. No entanto, a dependência energética, associada à subida de preços e a redução das emissões de gases do efeito estufa, estimula o desenvolvimento de novas soluções que permitam lidar com esta situação. O desempenho energético por sua vez depende não só das características da estrutura, mas também do comportamento do utilizador. O desempenho energético dos edifícios é muito importante, uma vez que os respectivos consumos são responsáveis por mais de metade do total da energia produzida. Desta forma, a fim de alcançar um melhor desempenho é importante não só considerar o desempenho de estrutura, mas também monitorizar o comportamento do utilizador. Esta última questão coloca várias limitações, uma vez que depende muito do tipo de utilizador. Um dos conceitos actuais emergentes são as chamadas redes de sensores sem fio. Com esta tecnologia, pequenos módulos podem ser desenvolvidos com muitas possibilidades de conectividade, com elevado poder de processamento e com grande autonomia, sem serem excessivamente caros. Isto proporciona os meios para implementar vários dispositivos em toda a instalação, para recolher uma variedade de dados, sendo posteriormente armazenados num servidor. Os blocos fundamentais da infra-estrutura de sensores do projecto foram concebidos na Evoleo Technologies em simultâneo com o decorrer do estágio. Estes blocos recolhem dados específicos na instalação, e periodicamente enviam para o servidor central os valores recolhidos, onde são armazenados e colocados à disposição do utilizador. Os dados recolhidos podem então ser apresentados ao utilizador, proporcionando um registo de consumo de energia associado a um dado período de tempo. Uma vez que todos os dados são armazenados no servidor, podem ser efectuados estudos para determinar o uso típico, possíveis problemas em aparelhos, a qualidade da energia eléctrica, etc., permitindo determinar onde a energia está a ser eventualmente desperdiçada e fornecendo dados ao utilizador para que este possa proceder a alterações, tendo por base dados recolhidos num dado período. O objectivo principal deste trabalho passa por estabelecer a ligação entre o nível máquina e o nível de utilizador, isto é, uma plataforma de interacção entre dispositivos e administrador da instalação. Fornecer os dados de uma forma fácil e sem necessidade de instalação de software específico em cada dispositivo que se pretenda utilizar para monitorizar foi uma das principais preocupações das fases de concepção do projecto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação de Mestrado em Engenharia Informática

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Ciência e Sistemas de Informação Geográfica

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia de Eletrónica e Computadores

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução – A cintigrafia de perfusão do miocárdio (CPM) desempenha um importante papel no diagnóstico, avaliação e seguimento de pacientes com doença arterial coronária, sendo o seu processamento realizado maioritariamente de forma semiautomática. Uma vez que o desempenho dos técnicos de medicina nuclear (TMN) pode ser afetado por fatores individuais e ambientais, diferentes profissionais que processem os mesmos dados poderão obter diferentes estimativas dos parâmetros quantitativos (PQ). Objetivo – Avaliar a influência da experiência profissional e da função visual no processamento semiautomático da CPM. Analisar a variabilidade intra e interoperador na determinação dos PQ funcionais e de perfusão. Metodologia – Selecionou-se uma amostra de 20 TMN divididos em dois grupos, de acordo com a sua experiência no software Quantitative Gated SPECTTM: Grupo A (GA) – TMN ≥600h de experiência e Grupo B (GB) – TMN sem experiência. Submeteram-se os TMN a uma avaliação ortóptica e ao processamento de 21 CPM, cinco vezes, não consecutivas. Considerou-se uma visão alterada quando pelo menos um parâmetro da função visual se encontrava anormal. Para avaliar a repetibilidade e a reprodutibilidade recorreu-se à determinação dos coeficientes de variação, %. Na comparação dos PQ entre operadores, e para a análise do desempenho entre o GA e GB, aplicou-se o Teste de Friedman e de Wilcoxon, respetivamente, considerando o processamento das mesmas CPM. Para a comparação de TMN com visão normal e alterada na determinação dos PQ utilizou-se o Teste Mann-Whitney e para avaliar a influência da visão para cada PQ recorreu-se ao coeficiente de associação ETA. Diferenças estatisticamente significativas foram assumidas ao nível de significância de 5%. Resultados e Discussão – Verificou-se uma reduzida variabilidade intra (<6,59%) e inter (<5,07%) operador. O GB demonstrou ser o mais discrepante na determinação dos PQ, sendo a parede septal (PS) o único PQ que apresentou diferenças estatisticamente significativas (zw=-2,051, p=0,040), em detrimento do GA. No que se refere à influência da função visual foram detetadas diferenças estatisticamente significativas apenas na fração de ejeção do ventrículo esquerdo (FEVE) (U=11,5, p=0,012) entre TMN com visão normal e alterada, contribuindo a visão em 33,99% para a sua variação. Denotaram-se mais diferenças nos PQ obtidos em TMN que apresentam uma maior incidência de sintomatologia ocular e uma visão binocular diminuída. A FEVE demonstrou ser o parâmetro mais consistente entre operadores (1,86%). Conclusão – A CPM apresenta-se como uma técnica repetível e reprodutível, independente do operador. Verificou-se influência da experiência profissional e da função visual no processamento semiautomático da CPM, nos PQ PS e FEVE, respetivamente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do Grau de Mestre em Engenharia Informática

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os sensores hiperespectrais que estão a ser desenvolvidos para aplicações em detecção remota, produzem uma elevada quantidade de dados. Tal quantidade de dados obriga a que as ferramentas de análise e processamento sejam eficientes e tenham baixa complexidade computacional. Uma tarefa importante na detecção remota é a determinação das substâncias presentes numa imagem hiperespectral e quais as suas concentrações. Neste contexto, Vertex component analysis (VCA), é um método não-supervisionado recentemente proposto que é eficiente e tem a complexidade computacional mais baixa de todos os métodos conhecidos. Este método baseia-se no facto de os vértices do simplex corresponderem às assinaturas dos elementos presentes nos dados. O VCA projecta os dados em direcções ortogonais ao subespaço gerado pelas assinaturas das substâncias já encontradas, correspondendo o extremo desta projecção à assinatura da nova substância encontrada. Nesta comunicação apresentam-se várias optimizações ao VCA nomeadamente: 1) a introdução de um método de inferência do sub-espaço de sinal que permite para além de reduzir a dimensionalidade dos dados, também permite estimar o número de substâncias presentes. 2) projeção dos dados é executada em várias direcções para garantir maior robustez em situações de baixa relação sinal-ruído. As potencialidades desta técnica são ilustradas num conjunto de experiências com dados simulados e reais, estes últimos adquiridos pela plataforma AVIRIS.