995 resultados para Detecção Multi-Usuário


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The introduction of new digital services in the cellular networks, in transmission rates each time more raised, has stimulated recent research that comes studying ways to increase the data communication capacity and to reduce the delays in forward and reverse links of third generation WCDMA systems. These studies have resulted in new standards, known as 3.5G, published by 3GPP group, for the evolution of the third generation of the cellular systems. In this Masters Thesis the performance of a 3G WCDMA system, with diverse base stations and thousand of users is developed with assists of the planning tool NPSW. Moreover the performance of the 3.5G techniques hybrid automatic retransmission and multi-user detection with interference cancellation, candidates for enhance the WCDMA uplink capacity, is verified by means of computational simulations in Matlab of the increase of the data communication capacity and the reduction of the delays in the retransmission of packages of information

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Por serem organismos filtradores, os mexilhões devem ser extraídos para consumo somente de águas com padrões microbiológicos regulamentados pelo Conselho Nacional do Meio Ambiente, uma vez que intoxicações alimentares de origem bacteriana são as consequências mais comuns relacionadas ao consumo destes moluscos. Após a retirada dos costões, estes organismos passam por processos de fervura, lavagem, acondicionamento em sacos plásticos e transporte até a chegada ao mercado onde são comercializados; etapas estas, realizadas sem cuidados assépticos. Objetivando avaliar a qualidade microbiológica de mexilhões Perna perna coletados na praia de Itaipu, Niterói, RJ; após a sua fervura; e comercializados no Mercado São Pedro, foram realizadas contagens de coliformes totais e termotolerantes e pesquisa de Escherichia coli, Salmonella spp. e Vibrio spp. por metodologia convencional e molecular em amostras obtidas destes locais. Pelo teste de disco-difusão foi observado o perfil de resistência das cepas isoladas. Do total de amostras analisadas (27) apenas 3 dos mexilhões que sofreram processo de aferventação, 1 do comercializado e 3 do in natura, se encontravam dentro dos padrões aceitáveis pela legislação. Não houve diferença significativa entre as contagens de coliformes termotolerantes dos diferentes mexilhões analisados, mas sim entre os períodos seco e chuvoso. Somente uma das nove coletas de água mostrou-se própria para o cultivo de mexilhões (até 14 CF/mL). Foram isoladas e caracterizadas fisiológicamente, 77 estirpes da espécie E. coli, sendo confirmadas molecularmente por PCR os sorotipos EPEC, STEC e EAEC; 4 cepas Salmonella spp. sendo apenas uma confirmada por PCR; e das 57 cepas caracterizadas como Vibrio spp., 51 foram confirmadas por PCR, sendo 46 Vibrio spp., 2 V. cholerae, 1 V. vulnificus, 1 V. parahaemolyticus e 1 V. mimicus. Entre as estirpes de E. coli, 13% apresentaram multirresistência e 15,6% apresentaram resistência múltipla. A estirpe de Salmonella spp. se mostrou sensível a todos os antimicrobiados testados. Das estirpes de Vibrio spp. testadas, 68,6% apresentaram multirresistência e 72,5% apresentaram resistência múltipla. A partir da pesquisa de genes direto do caldo de enriquecimento foi possível detectar todos os genes pesquisados, com exceção para os sorotipos de Salmonella e V. cholerae. Baseado nos resultados do presente trabalho pode-se inferir que os mexilhões, amplamente comercializados no município de Itaipú, podem se constituir em risco para a saúde pública dos consumidores no Rio de Janeiro, necessitando dos órgãos competentes uma eficiente fiscalização nos pontos de venda e cultivo destes moluscos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcançando taxas de erro mínimas e tempos de execução inferiores a meio segundo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Actualmente tem-se observado um aumento do volume de sinais de fala em diversas aplicações, que reforçam a necessidade de um processamento automático dos ficheiros. No campo do processamento automático destacam-se as aplicações de “diarização de orador”, que permitem catalogar os ficheiros de fala com a identidade de oradores e limites temporais de fala de cada um, através de um processo de segmentação e agrupamento. No contexto de agrupamento, este trabalho visa dar continuidade ao trabalho intitulado “Detecção do Orador”, com o desenvolvimento de um algoritmo de “agrupamento multi-orador” capaz de identificar e agrupar correctamente os oradores, sem conhecimento prévio do número ou da identidade dos oradores presentes no ficheiro de fala. O sistema utiliza os coeficientes “Mel Line Spectrum Frequencies” (MLSF) como característica acústica de fala, uma segmentação de fala baseada na energia e uma estrutura do tipo “Universal Background Model - Gaussian Mixture Model” (UBM-GMM) adaptado com o classificador “Support Vector Machine” (SVM). No trabalho foram analisadas três métricas de discriminação dos modelos SVM e a avaliação dos resultados foi feita através da taxa de erro “Speaker Error Rate” (SER), que quantifica percentualmente o número de segmentos “fala” mal classificados. O algoritmo implementado foi ajustado às características da língua portuguesa através de um corpus com 14 ficheiros de treino e 30 ficheiros de teste. Os ficheiros de treino dos modelos e classificação final, enquanto os ficheiros de foram utilizados para avaliar o desempenho do algoritmo. A interacção com o algoritmo foi dinamizada com a criação de uma interface gráfica que permite receber o ficheiro de teste, processá-lo, listar os resultados ou gerar um vídeo para o utilizador confrontar o sinal de fala com os resultados de classificação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The transport of fluids through pipes is used in the oil industry, being the pipelines an important link in the logistics flow of fluids. However, the pipelines suffer deterioration in their walls caused by several factors which may cause loss of fluids to the environment, justifying the investment in techniques and methods of leak detection to minimize fluid loss and environmental damage. This work presents the development of a supervisory module in order to inform to the operator the leakage in the pipeline monitored in the shortest time possible, in order that the operator log procedure that entails the end of the leak. This module is a component of a system designed to detect leaks in oil pipelines using sonic technology, wavelets and neural networks. The plant used in the development and testing of the module presented here was the system of tanks of LAMP, and its LAN, as monitoring network. The proposal consists of, basically, two stages. Initially, assess the performance of the communication infrastructure of the supervisory module. Later, simulate leaks so that the DSP sends information to the supervisory performs the calculation of the location of leaks and indicate to which sensor the leak is closer, and using the system of tanks of LAMP, capture the pressure in the pipeline monitored by piezoresistive sensors, this information being processed by the DSP and sent to the supervisory to be presented to the user in real time

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Equipment maintenance is the major cost factor in industrial plants, it is very important the development of fault predict techniques. Three-phase induction motors are key electrical equipments used in industrial applications mainly because presents low cost and large robustness, however, it isn t protected from other fault types such as shorted winding and broken bars. Several acquisition ways, processing and signal analysis are applied to improve its diagnosis. More efficient techniques use current sensors and its signature analysis. In this dissertation, starting of these sensors, it is to make signal analysis through Park s vector that provides a good visualization capability. Faults data acquisition is an arduous task; in this way, it is developed a methodology for data base construction. Park s transformer is applied into stationary reference for machine modeling of the machine s differential equations solution. Faults detection needs a detailed analysis of variables and its influences that becomes the diagnosis more complex. The tasks of pattern recognition allow that systems are automatically generated, based in patterns and data concepts, in the majority cases undetectable for specialists, helping decision tasks. Classifiers algorithms with diverse learning paradigms: k-Neighborhood, Neural Networks, Decision Trees and Naïves Bayes are used to patterns recognition of machines faults. Multi-classifier systems are used to improve classification errors. It inspected the algorithms homogeneous: Bagging and Boosting and heterogeneous: Vote, Stacking and Stacking C. Results present the effectiveness of constructed model to faults modeling, such as the possibility of using multi-classifiers algorithm on faults classification

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This works presents a proposal to make automatic the identification of energy thefts in the meter systems through Fuzzy Logic and supervisory like SCADA. The solution we find by to collect datas from meters at customers units: voltage, current, power demand, angles conditions of phasors diagrams of voltages and currents, and taking these datas by fuzzy logic with expert knowledge into a fuzzy system. The parameters collected are computed by fuzzy logic, in engineering alghorithm, and the output shows to user if the customer researched may be consuming electrical energy without to pay for it, and these feedbacks have its own membership grades. The value of this solution is a need for reduce the losses that already sets more than twenty per cent. In such a way that it is an expert system that looks for decision make with assertivity, and it looks forward to find which problems there are on site and then it wont happen problems of relationship among the utility and the customer unit. The database of an electrical company was utilized and the datas from it were worked by the fuzzy proposal and algorithm developed and the result was confirmed

Relevância:

30.00% 30.00%

Publicador:

Resumo:

There has been an increasing tendency on the use of selective image compression, since several applications make use of digital images and the loss of information in certain regions is not allowed in some cases. However, there are applications in which these images are captured and stored automatically making it impossible to the user to select the regions of interest to be compressed in a lossless manner. A possible solution for this matter would be the automatic selection of these regions, a very difficult problem to solve in general cases. Nevertheless, it is possible to use intelligent techniques to detect these regions in specific cases. This work proposes a selective color image compression method in which regions of interest, previously chosen, are compressed in a lossless manner. This method uses the wavelet transform to decorrelate the pixels of the image, competitive neural network to make a vectorial quantization, mathematical morphology, and Huffman adaptive coding. There are two options for automatic detection in addition to the manual one: a method of texture segmentation, in which the highest frequency texture is selected to be the region of interest, and a new face detection method where the region of the face will be lossless compressed. The results show that both can be successfully used with the compression method, giving the map of the region of interest as an input

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

People store data of the most different daily events, to know yourself, detect behaviors, predict events and have an strongly knowledge to take decisions. The growth of the events, results in a large amount of data colected and this data needs to be processed to get value information. This data have a temporal component from the collect process (daily, monthly or annualy) and this need to be consider on the exploration. The exploration based on temporal component can be uni-scale or multi-scale. The data mining goes toward to extract knowledge from large databases and if combined with visualization tools, the data mining can be more effective to detect information. This visualization tools display data and allow user to manipulate and change it by interaction features toward your goal. The user can combine tools and combine the steps of visualization among the tools through messages. This monograph aim to insert interactivity on AdaptaVis architecture model, developed by Shimabukuro (2004), the InfoVis, then extends its ability of exploration and provide a consistent base for the user handle data and extract information