1000 resultados para Esfigmomanómetro Automático Digital


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Linguística e Língua Portuguesa - FCLAR

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho são apresentados o desenvolvimento e a implementação de estratégias de controle digital para regulação automática de tensão e para o amortecimento de oscilações eletromecânicas em um sistema de potência em escala reduzida de 10kVA, localizado no Laboratório de Controle de Sistemas de Potência (LACSPOT), da Universidade Federal do Pará (UFPA). O projeto dos dois controladores é baseado na técnica de alocação polinomial de polos. Para o projeto do Regulador Automático de Tensão (RAT) foi adotado um modelo simplificado, de primeira ordem, da máquina síncrona, cujos parâmetros foram levantados experimentalmente. Para o controlador amortecedor, por sua vez, também chamado de Estabilizador de Sistemas de Potência (ESP), foi utilizado um modelo discreto, do tipo auto regressivo com entrada exógena (ARX). Este modelo foi estimado por meio de técnicas de identificação paramétrica, considerando para tal, o conjunto motor-gerador interligado a um sistema de maior porte (concessionária de energia elétrica). As leis de controle foram embarcadas em um microcontrolador de alto desempenho e, para a medição dos sinais utilizados nos controladores, foi desenvolvida uma instrumentação eletrônica baseada em amplificadores operacionais para o condicionamento dos sinais dos sensores. O sinal de controle é baseado na técnica de modulação por largura de pulso (PWM) e comanda o valor médio da tensão de um conversor CC-CC, o qual é utilizado como circuito de excitação que energiza o enrolamento de campo do gerador. Além disso, o acionamento elétrico das máquinas que compõem o grupo gerador de 10kVA foi projetado e automatizado somando segurança aos operadores e ao componentes deste sistema de geração. Os resultados experimentais demonstraram o bom desempenho obtido pela estratégia proposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The best way to detect breast cancer is by screening mammography. The mammography equipments are dedicated and require a rigorous quality control in order to have a good quality image and to early detect this disease. The digital equipment is relatively new in the market and there isn’t a national rule for quality control for several types of digital detectors. This study has proposed to compare two different tests manuals for quality control provided by the manufacturers of digital mammography equipments, and also compare them to the “European guidelines for quality assurance in breast cancer screening and diagnosis “(2006). The studied equipments were: Senographe 2000D from General Electric (GE) and the Hologic Selenia Lorad. Both were digital mammography equipments, the GE unit presents an indirect digital system and the other presents a direct digital system. Physical parameters of the image have been studied, such as spatial resolution, contrast resolution, noise, signal-tonoise ratio, contrast-to-noise ratio and modulation transfer function. After that, a study of the importance of quality control and the requirement to implement a Quality Assurance Program has been done. One data collection was done to compare those manual, it was done by checking which tests are indicated and the minimum frequency which they should be conducted in accordance with each manufacturer. The tests were performed by different methodologies and the results were compared. The examined tests were: the breast entrance skin dose, mean glandular dose, contrast-to-noise ratio, signal-to-noise ratio, automatic exposure control and automatic control of density, modulation transfer function, equipment resolution, homogeneity and ghost

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El análisis cuantitativo de las fases minerales visibles en probetas pulidas mediante un sistema experto y automático representan un eficaz complemento a las técnicas tradicionales de microscopía de reflexión. El Análisis digital de imagen, ADI, en comparación con las técnicas habitualmente usadas de cuantificación (platina integradora), supone un ahorro enorme de tiempo, a la vez que facilita un potentísimo instrumento para el tratamiento estadístico de las medidas que se realizan.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En minería, la estimación de la curva granulométrica del escombro de voladura es importante para evaluar el diseño, ejecución y optimización de la misma. Para ello, actualmente se usan sistemas digitales de fotografías que obtienen dicha curva a partir de imágenes tomadas por una cámara. En este proyecto se ha analizado la fragmentación de seis voladuras realizadas en el año 2012 en la cantera “El Aljibe” situada en el término municipal de Almonacid de Toledo con un sistema automático en línea (Split Online) y con un software de otra compañía (WipFrag) que permite la edición manual de las imágenes. Han sido analizadas 120 imágenes de seis voladuras, elegidas aleatoriamente. Tras el estudio granulométrico, se observa que las curvas granulométricas obtenidas con ambos sistemas, estadísticamente, no son la misma en la mayor parte de la curva, por tanto, se analiza una posible relación entre los tamaños característicos X50 y X80, llegando a la conclusión de que ninguno de los sistemas es totalmente fiable, y es necesario calibrar los sistemas con datos de fragmentación reales obtenidos por medio de básculas. Abstract In mining, the estimate of the granulometric curve blasting debris is very important to evaluate the design, implementation and optimization of it. Currently, for the obtaining of this curves are used digital system of pictures taken by a camera. In this project, the fragmentation of six rock blasting were analyzed. The rock blastings are executed in 2012 in the quarry “El Aljibe” located in Almonacid de Toledo, with a automatic online system (Split Online) and a manual editing software (WipFrag). 120 randomly selected pictures have been analyzed. After the granulometric study, it appears that the size distribution curves obtained with both systems, statistically, are not the same, then, a possible relationship between the feature sizes X50 and X80 is analyzed, concluding that none of the systems is fully reliable, and systems must be calibrated with real data fragmentation obtained from data scales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El Hogar Digital Accesible (HDA) de la ETSIST nace con el propósito de acercar las nuevas Tecnologías de la Información a las personas que precisan de necesidades concretas de accesibilidad y usabilidad, dotándoles de herramientas que les permitan aumentar su calidad de vida, confort, seguridad y autonomía. El entorno del HDA consta de elementos de control para puertas, persianas, iluminación, agua o gas, sensores de temperatura, incendios, gas, sistemas de climatización, sistemas de entretenimiento y sistemas de seguridad tales como detectores de presencia y alarmas. Todo ello apoyado sobre una arquitectura de red que proporciona una pasarela residencial y un acceso a banda ancha. El objetivo principal de este PFG ha sido el desarrollo de un sistema de autenticación para el Hogar Digital Accesible de bajo coste. La idea de integrar un sistema de autenticación en el HDA, surge de la necesidad de proteger de accesos no deseados determinados servicios disponibles dentro de un ámbito privado. Algunos de estos servicios pueden ser tales como el acceso a la lectura de los mensajes disponibles en el contestador automático, el uso de equipos multimedia, la desconexión de alarmas de seguridad o simplemente la configuración de ambientes según el usuario que esté autenticado (intensidad de luz, temperatura de la sala, etc.). En el desarrollo han primado los principios de accesibilidad, usabilidad y seguridad necesarios para la creación de un entorno no invasivo, que permitiera acreditar la identidad del usuario frente al sistema HDA. Se ha planteado como posible solución, un sistema basado en el reconocimiento de un trazo realizado por el usuario. Este trazo se usará como clave de cara a validar a los usuarios. El usuario deberá repetir el trazado que registró en el sistema para autenticarse. Durante la ejecución del presente PFG, se justificará la elección de este mecanismo de autenticación frente a otras alternativas disponibles en el mercado. Para probar la aplicación, se ha podido contar con dos periféricos de distintas gamas, el uDraw creado para la PS3 que se compone de una tableta digitalizadora y un lápiz que permite recoger los trazos realizados por el usuario de forma inalámbrica y la tableta digitalizadora Bamboo de Wacom. La herramienta desarrollada permite a su vez, la posibilidad de ser usada por otro tipo de dispositivos como es el caso del reloj con acelerómetro de 3 ejes de Texas Instruments Chronos eZ430 capaz de trasladar los movimientos del usuario al puntero de un ratón. El PFG se encuentra dividido en tres grandes bloques de flujo de trabajo. El primero se centra en el análisis del sistema y las tecnologías que lo componen, incluyendo los distintos algoritmos disponibles para realizar la autenticación basada en reconocimiento de patrones aplicados a imágenes que mejor se adaptan a las necesidades del usuario. En el segundo bloque se recoge una versión de prueba basada en el análisis y el diseño UML realizado previamente, sobre la que se efectuaron pruebas de concepto y se comprobó la viabilidad del proyecto. El último bloque incluye la verificación y validación del sistema mediante pruebas que certifican que se han alcanzado los niveles de calidad necesarios para la consecución de los objetivos planteados, generando finalmente la documentación necesaria. Como resultado del trabajo realizado, se ha obtenido un sistema que plantea una arquitectura fácilmente ampliable lograda a través del uso de técnicas como la introspección, que permiten separar la lógica de la capa de negocio del código que la implementa, pudiendo de forma simple e intuitiva sustituir código mediante ficheros de configuración, lo que hace que el sistema sea flexible y escalable. Tras la realización del PFG, se puede concluir que el producto final obtenido ha respondido de forma satisfactoria alcanzando los niveles de calidad requeridos, siendo capaz de proporcionar un sistema de autenticación alternativo a los convencionales, manteniendo unas cotas de seguridad elevadas y haciendo de la accesibilidad y el precio sus características más reseñables. ABSTRACT. Accessible Digital Home (HDA) of the ETSIST was created with the aim of bringing the latest information and communications technologies closer to the people who has special needs of accessibility and usability increasing their quality of life, comfort, security and autonomy. The HDA environment has different control elements for doors, blinds, lighting, water or gas, temperature sensors, fire protection systems, gas flashover, air conditioning systems, entertainments systems and security systems such as intruders detectors and alarms. Everything supported by an architecture net which provides a broadband residential services gateway. The main goal of this PFG was the development of a low-cost authentication system for the Accessible Digital Home. The idea of integrating an authentication system on the HDA, stems from the need to safeguard certain private key network resources from unauthorized access. Some of said resources are the access to the answering machine messages, the use of multimedia devices, the alarms deactivation or the parameter settings for each environment as programmed by the authenticated user (light intensity, room temperature, etc.). During the development priority was given to concepts like accessibility, usability and security. All of them necessary to create a non invasive environment that allows the users to certify their identity. A system based on stroke pattern recognition, was considered as a possible solution. This stroke is used as a key to validate users. The user must repeat the stroke that was saved on the system to validate access. The selection of this authentication mechanism among the others available options will be justified during this PFG. Two peripherals with different ranges were used to test the application. One of them was uDraw design for the PS3. It is wireless and is formed by a pen and a drawing tablet that allow us to register the different strokes drawn by the user. The other one was the Wacom Bamboo tablet, that supports the same functionality but with better accuracy. The developed tool allows another kind of peripherals like the 3-axes accelerometer digital wristwatch Texas Instruments Chronos eZ430 capable of transfering user movements to the mouse cursor. The PFG is divided by three big blocks that represent different workflows. The first block is focused on the system analysis and the technologies related to it, including algorithms for image pattern recognition that fits the user's needs. The second block describes how the beta version was developed based on the UML analysis and design previously done. It was tested and the viability of the project was verified. The last block contains the system verification and validation. These processes certify that the requirements have been fulfilled as well as the quality levels needed to reach the planned goals. Finally all the documentation has been produced. As a result of the work, an expandable system has been created, due to the introspection that provides the opportunity to separate the business logic from the code that implements it. With this technique, the code could be replaced throughout configuration files which makes the system flexible and highly scalable. Once the PFG has finished, it must therefore be concluded that the final product has been a success and high levels of quality have been achieved. This authentication tool gives us a low-cost alternative to the conventional ones. The new authentication system remains security levels reasonably high giving particular emphasis to the accessibility and the price.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En los últimos años, la realización de compras y todo tipo de trámites a través de Internet o aspectos como la presencia online de las personas han ido aumentando paulatinamente y no parece que esta tendencia vaya a invertirse a corto plazo. Esto ha provocado que los requisitos de rendimiento y personalización exigidos a estos servicios se hayan visto incrementados notablemente. Cada vez más empresas y organizaciones de todo tipo señalan la importancia que tiene una gestión adecuada de las trazas de sus usuarios para tener éxito en el mercado digital. A partir de ellas se puede obtener información que redunda en incrementos de las capacidades de adaptación y del valor de las aplicaciones. En este sentido, los avances en el campo de la ciencia de los datos y en concreto, en el aprendizaje automático, han supuesto una pieza clave en el desarrollo de técnicas que permiten analizar y extraer el máximo conocimiento posible a partir de los grandes volúmenes de datos generados por la actividad de la Web. El objetivo de este trabajo es realizar un estudio de las fases, técnicas y metodologías que actualmente se aplican en el transcurso de los proyectos de ciencia de datos y en la disciplina del aprendizaje automático. Una vez se hayan identificado aquellas más utilizadas, se aplicarán a un ejemplo realista perteneciente al ámbito de la minería web. En concreto, se desarrollarán modelos predictivos por medio de diferentes algoritmos de aprendizaje automático (regresión logística o reglas de asociación, entre otros) que permitan modelar el comportamiento de los usuarios y predecir la página web que van a visitar a continuación. Para ello se hará uso del paquete estadístico R y de la plataforma de desarrollo RStudio. Posteriormente, se procederá a determinar los principales obstáculos que se derivan de la aplicación de las técnicas del aprendizaje automático así como a determinar el rendimiento que pueden llegar a alcanzar en la práctica. Así mismo se propondrán posibles aplicaciones de los resultados obtenidos con la finalidad de proporcionar valor de negocio dentro de un entorno real. Finalmente, se desarrollarán una serie de componentes de visualización web que permitan presentar de forma gráfica los resultados extraídos del análisis así como interactuar con los distintos modelos en tiempo real. A partir de todo lo anterior se establecerá una comparativa entre los distintos modelos producidos y se destacarán las ventajas e inconvenientes de cada uno de ellos. Con todo ello se presentarán unas recomendaciones finales que recojan los factores a tener en cuenta a la hora de aplicar estos algoritmos al caso concreto de los datos de uso web.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Assunto bastante abordado quando se trata de Sistemas Inteligentes de Transportes (ITS), a identificação veicular - utilizada em grande parte das aplicações de ITS deve ser entendida como um conjunto de recursos de hardware, software e telecomunicações, que interagem para atingir, do ponto de vista funcional, o objetivo de, conseguir extrair e transmitir, digitalmente, a identidade de um veículo. É feita tanto por sistemas que transmitem e recebem uma identidade digital quanto por sistemas que, instalados na infraestrutura da via, são capazes de reconhecer a placa dos veículos circulantes. Quando se trata da identificação automática por meio do reconhecimento da placa veicular, os estudos têm se concentrado sobremaneira nas tecnologias de processamento de imagens, não abordando - em sua maioria - uma visão sistêmica, necessária para compreender de maneira mais abrangente todas as variáveis que podem interferir na eficácia da identificação. Com o objetivo de contribuir para melhor entender e utilizar os sistemas de reconhecimento automático de placas veiculares, este trabalho propõe um modelo sistêmico, em camadas, para representar seus componentes. Associada a esse modelo, propõe uma classificação para os diversos tipos de falhas que podem prejudicar seu desempenho. Uma análise desenvolvida com resultados obtidos em testes realizados em campo com sistemas de identificação de placas voltados à fiscalização de veículos aponta resultados relevantes e limitações para obter correlações entre variáveis, em função dos diversos fatores que podem influenciar os resultados. Algumas entrevistas realizadas apontam os tipos de falhas que ocorrem com mais frequência durante a operação desses sistemas. Finalmente, este trabalho propõe futuros estudos e apresenta um glossário de termos, que poderá ser útil a novos pesquisadores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The electric power systems are getting more complex and covering larger areas day by day. This fact has been contribuiting to the development of monitoring techniques that aim to help the analysis, control and planning of power systems. Supervisory Control and Data Acquisition (SCADA) systems, Wide Area Measurement Systems and disturbance record systems. Unlike SCADA and WAMS, disturbance record systems are mainly used for offilne analysis in occurrences where a fault resulted in tripping of and apparatus such as a transimission line, transformer, generator and so on. The device responsible for record the disturbances is called Digital Fault Recorder (DFR) and records, basically, electrical quantities as voltage and currents and also, records digital information from protection system devices. Generally, in power plants, all the DFRs data are centralized in the utility data centre and it results in an excess of data that difficults the task of analysis by the specialist engineers. This dissertation shows a new methodology for automated analysis of disturbances in power plants. A fuzzy reasoning system is proposed to deal with the data from the DFRs. The objective of the system is to help the engineer resposnible for the analysis of the DFRs’s information by means of a pre-classification of data. For that, the fuzzy system is responsible for generating unit operational state diagnosis and fault classification.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Several medical and dental schools have described their experience in the transition from conventional to digital microscopy in the teaching of general pathology and histology disciplines; however, this transitional process has scarcely been reported in the teaching of oral pathology. Therefore, the objective of the current study is to report the transition from conventional glass slide to virtual microscopy in oral pathology teaching, a unique experience in Latin America. An Aperio ScanScope® scanner was used to digitalize histological slides used in practical lectures of oral pathology. The challenges and benefits observed by the group of Professors from the Piracicaba Dental School (Brazil) are described and a questionnaire to evaluate the students' compliance to this new methodology was applied. An improvement in the classes was described by the Professors who mainly dealt with questions related to pathological changes instead of technical problems; also, a higher interaction with the students was described. The simplicity of the software used and the high quality of the virtual slides, requiring a smaller time to identify microscopic structures, were considered important for a better teaching process. Virtual microscopy used to teach oral pathology represents a useful educational methodology, with an excellent compliance of the dental students.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Remotely sensed imagery has been widely used for land use/cover classification thanks to the periodic data acquisition and the widespread use of digital image processing systems offering a wide range of classification algorithms. The aim of this work was to evaluate some of the most commonly used supervised and unsupervised classification algorithms under different landscape patterns found in Rondônia, including (1) areas of mid-size farms, (2) fish-bone settlements and (3) a gradient of forest and Cerrado (Brazilian savannah). Comparison with a reference map based on the kappa statistics resulted in good to superior indicators (best results - K-means: k=0.68; k=0.77; k=0.64 and MaxVer: k=0.71; k=0.89; k=0.70 respectively for three areas mentioned). Results show that choosing a specific algorithm requires to take into account both its capacity to discriminate among various spectral signatures under different landscape patterns as well as a cost/benefit analysis considering the different steps performed by the operator performing a land cover/use map. it is suggested that a more systematic assessment of several options of implementation of a specific project is needed prior to beginning a land use/cover mapping job.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Universidade Estadual de Campinas . Faculdade de Educação Física

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Universidade Estadual de Campinas . Faculdade de Educação Física

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Universidade Estadual de Campinas . Faculdade de Educação Física