896 resultados para voip , dispositivi mobili , portabilità , user-friendly
Resumo:
Desde hace más de 20 años, muchos grupos de investigación trabajan en el estudio de técnicas de reconocimiento automático de expresiones faciales. En los últimos años, gracias al avance de las metodologías, ha habido numerosos avances que hacen posible una rápida detección de las caras presentes en una imagen y proporcionan algoritmos de clasificación de expresiones. En este proyecto se realiza un estudio sobre el estado del arte en reconocimiento automático de emociones, para conocer los diversos métodos que existen en el análisis facial y en el reconocimiento de la emoción. Con el fin de poder comparar estos métodos y otros futuros, se implementa una herramienta modular y ampliable y que además integra un método de extracción de características que consiste en la obtención de puntos de interés en la cara y dos métodos para clasificar la expresión, uno mediante comparación de desplazamientos de los puntos faciales, y otro mediante detección de movimientos específicos llamados unidades de acción. Para el entrenamiento del sistema y la posterior evaluación del mismo, se emplean las bases de datos Cohn-Kanade+ y JAFFE, de libre acceso a la comunidad científica. Después, una evaluación de estos métodos es llevada a cabo usando diferentes parámetros, bases de datos y variando el número de emociones. Finalmente, se extraen conclusiones del trabajo y su evaluación, proponiendo las mejoras necesarias e investigación futura. ABSTRACT. Currently, many research teams focus on the study of techniques for automatic facial expression recognition. Due to the appearance of digital image processing, in recent years there have been many advances in the field of face detection, feature extraction and expression classification. In this project, a study of the state of the art on automatic emotion recognition is performed to know the different methods existing in facial feature extraction and emotion recognition. To compare these methods, a user friendly tool is implemented. Besides, a feature extraction method is developed which consists in obtaining 19 facial feature points. Those are passed to two expression classifier methods, one based on point displacements, and one based on the recognition of facial Action Units. Cohn-Kanade+ and JAFFE databases, both freely available to the scientific community, are used for system training and evaluation. Then, an evaluation of the methods is performed with different parameters, databases and varying the number of emotions. Finally, conclusions of the work and its evaluation are extracted, proposing some necessary improvements and future research.
Resumo:
Existen en el mercado numerosas aplicaciones para la generación de reverberación y para la medición de respuestas al impulso acústicas. Sin embargo, éstas son de precios muy elevados y/o no se permite acceder a su código y, mucho menos, distribuir de forma totalmente libre. Además, las herramientas que ofrecen para la medición de respuestas al impulso requieren de un tedioso proceso para la generación de la señal de excitación, su reproducción y grabación y, finalmente, su post-procesado. Este procedimiento puede llevar en ocasiones al usuario a cometer errores debido a la falta de conocimientos técnicos. El propósito de este proyecto es dar solución a algunos de los inconvenientes planteados. Con tal fin se llevó a cabo el desarrollo e implementación de un módulo de reverberación por convolución particionada en tiempo real, haciendo uso de software gratuito y de libre distribución. En concreto, se eligió la estación digital de trabajo (DAW. Digital Audio Worksation) REAPER de la compañía Cockos. Además de incluir las funcionalidades básicas de edición y secuenciación presentes en cualquier DAW, el programa incluye un entorno para la implementación de efectos de audio en lenguaje JS (Jesusonic), y se distribuye con licencias completamente gratuitas y sin limitaciones de uso. Complementariamente, se propone una extensión para REAPER que permite la medición de respuestas al impulso de recintos acústicos de una forma completamente automatizada y amigable para el usuario. Estas respuestas podrán ser almacenadas y posteriormente cargadas en el módulo de reverberación, permitiendo aplicar sobre nuestras pistas de audio la respuesta acústica de cualquier recinto en el que se hayan realizado medidas. La implementación del sistema de medida de respuestas se llevó a cabo empleando la herramienta ReaScript de REAPER, que permite la ejecución de pequeños scripts Python. El programa genera un Barrido Sinusoidal Logarítmico que excita el recinto acústico cuya respuesta se desea medir, grabando la misma en un archivo .wav. Este procedimiento es sencillo, intuitivo y está al alcance de cualquier usuario doméstico, ya que no requiere la utilización de sofisticado instrumental de medida. ABSTRACT. There are numerous applications in the market for the generation of reverb and measurement of acoustic impulse responses. However, they are usually very costly and closed source. In addition, the provided tools for measuring impulse responses require tedious processes for the generation and reproduction of the excitation signal, the recording of the response and its final post-processing. This procedure can sometimes drive the user to make mistakes due to the lack of technical knowledge. The purpose of this project is to solve some of the mentioned problems. To that end we developed and implemented a real-time partitioned convolution reverb module using free open source software. Specifically, the chosen software was the Cockos’ digital audio workstation (DAW) REAPER. In addition to the basic features included in any DAW, such as editing and sequencing, the program includes an environment for implementing audio effects in JS (Jesusonic) language of free distribution and features an unrestricted license. As an extension for REAPER, we propose a fully automated and user-friendly method for measuring rooms’ acoustic impulse responses. These will be stored and then loaded into the reverb module, allowing the user to apply the acoustical response of any room where measurement have been taken to any audio track. The implementation of the impulse response measurement system was done using REAPER’s ReaScript tool that allows the execution of small Python scripts. The program generates a logarithmic sine sweep that excites the room and its response is recorded in a .wav file. This procedure is simple, intuitive and it is accessible to any home user as it does not require the use of sophisticated measuring equipment.
Resumo:
A more natural, intuitive, user-friendly, and less intrusive Human–Computer interface for controlling an application by executing hand gestures is presented. For this purpose, a robust vision-based hand-gesture recognition system has been developed, and a new database has been created to test it. The system is divided into three stages: detection, tracking, and recognition. The detection stage searches in every frame of a video sequence potential hand poses using a binary Support Vector Machine classifier and Local Binary Patterns as feature vectors. These detections are employed as input of a tracker to generate a spatio-temporal trajectory of hand poses. Finally, the recognition stage segments a spatio-temporal volume of data using the obtained trajectories, and compute a video descriptor called Volumetric Spatiograms of Local Binary Patterns (VS-LBP), which is delivered to a bank of SVM classifiers to perform the gesture recognition. The VS-LBP is a novel video descriptor that constitutes one of the most important contributions of the paper, which is able to provide much richer spatio-temporal information than other existing approaches in the state of the art with a manageable computational cost. Excellent results have been obtained outperforming other approaches of the state of the art.
Resumo:
O estudo pretende mostrar que a clareza semântica e a fácil navegabilidade nos sites de Relações com Investidores são essenciais para a comunicação com os investidores individuais bem como para a sua compreensão das Boas Práticas da Governança Corporativa adotadas pelas empresas que aderiram ao Novo Mercado da Bovespa. O trabalho está dividido em quatro etapas. O primeiro capítulo explica o que é Governança Corporativa, como esse conceito foi implementado no Brasil, apresenta o mercado de ações, o Novo Mercado e aborda os temas relacionados ao setor financeiro. Em seguida, aborda a evolução da comunicação empresarial e como as organizações tiveram que adaptar a sua cultura organizacional e os canais de comunicação devido à constante e ininterrupta série de transações (aquisições, fusões e incorporações) que acontecem no Brasil desde 1994, com o início do Plano Real. Esse processo proporcionou uma alteração geopolítica, cultural, econômica e social nas corporações. Ainda nesse capítulo o estudo apresenta as características dos canais que as organizações utilizam para se comunicar com os públicos de referência. Mostra também como a internet e as demais mídias digitais se integraram nesse processo corporativo, a relação com os investidores, os sites de RI das empresas do Novo Mercado e o perfil do investidor individual. Por último, o estudo apresenta a avaliação dos sites de RI, os critérios adotados para analisar a construção das homepages e demais páginas. Nesse ponto, o objetivo foi avaliar a clareza semântica, ou seja, a maneira como as informações são transmitidas para os investidores individuais, a acessibilidade desse canal de comunicação como a quantidade de cliques necessária para ter acesso a qualquer informação e se os sites possuem espaços específicos para esse público. Finalmente, são apresentados os resultados e uma análise da comunicação empresarial dessas empresas antes e depois da entrada das mesmas no Novo Mercado da Bovespa e as considerações finais.(AU)
Resumo:
O estudo pretende mostrar que a clareza semântica e a fácil navegabilidade nos sites de Relações com Investidores são essenciais para a comunicação com os investidores individuais bem como para a sua compreensão das Boas Práticas da Governança Corporativa adotadas pelas empresas que aderiram ao Novo Mercado da Bovespa. O trabalho está dividido em quatro etapas. O primeiro capítulo explica o que é Governança Corporativa, como esse conceito foi implementado no Brasil, apresenta o mercado de ações, o Novo Mercado e aborda os temas relacionados ao setor financeiro. Em seguida, aborda a evolução da comunicação empresarial e como as organizações tiveram que adaptar a sua cultura organizacional e os canais de comunicação devido à constante e ininterrupta série de transações (aquisições, fusões e incorporações) que acontecem no Brasil desde 1994, com o início do Plano Real. Esse processo proporcionou uma alteração geopolítica, cultural, econômica e social nas corporações. Ainda nesse capítulo o estudo apresenta as características dos canais que as organizações utilizam para se comunicar com os públicos de referência. Mostra também como a internet e as demais mídias digitais se integraram nesse processo corporativo, a relação com os investidores, os sites de RI das empresas do Novo Mercado e o perfil do investidor individual. Por último, o estudo apresenta a avaliação dos sites de RI, os critérios adotados para analisar a construção das homepages e demais páginas. Nesse ponto, o objetivo foi avaliar a clareza semântica, ou seja, a maneira como as informações são transmitidas para os investidores individuais, a acessibilidade desse canal de comunicação como a quantidade de cliques necessária para ter acesso a qualquer informação e se os sites possuem espaços específicos para esse público. Finalmente, são apresentados os resultados e uma análise da comunicação empresarial dessas empresas antes e depois da entrada das mesmas no Novo Mercado da Bovespa e as considerações finais.(AU)
Resumo:
WormBase (http://www.wormbase.org) is a web-based resource for the Caenorhabditis elegans genome and its biology. It builds upon the existing ACeDB database of the C.elegans genome by providing data curation services, a significantly expanded range of subject areas and a user-friendly front end.
Resumo:
Arabidopsis thaliana, a small annual plant belonging to the mustard family, is the subject of study by an estimated 7000 researchers around the world. In addition to the large body of genetic, physiological and biochemical data gathered for this plant, it will be the first higher plant genome to be completely sequenced, with completion expected at the end of the year 2000. The sequencing effort has been coordinated by an international collaboration, the Arabidopsis Genome Initiative (AGI). The rationale for intensive investigation of Arabidopsis is that it is an excellent model for higher plants. In order to maximize use of the knowledge gained about this plant, there is a need for a comprehensive database and information retrieval and analysis system that will provide user-friendly access to Arabidopsis information. This paper describes the initial steps we have taken toward realizing these goals in a project called The Arabidopsis Information Resource (TAIR) (www.arabidopsis.org).
Resumo:
GlycoSuiteDB is a relational database that curates information from the scientific literature on glycoprotein derived glycan structures, their biological sources, the references in which the glycan was described and the methods used to determine the glycan structure. To date, the database includes most published O-linked oligosaccharides from the last 50 years and most N-linked oligosaccharides that were published in the 1990s. For each structure, information is available concerning the glycan type, linkage and anomeric configuration, mass and composition. Detailed information is also provided on native and recombinant sources, including tissue and/or cell type, cell line, strain and disease state. Where known, the proteins to which the glycan structures are attached are reported, and cross-references to the SWISS-PROT/TrEMBL protein sequence databases are given if applicable. The GlycoSuiteDB annotations include literature references which are linked to PubMed, and detailed information on the methods used to determine each glycan structure are noted to help the user assess the quality of the structural assignment. GlycoSuiteDB has a user-friendly web interface which allows the researcher to query the database using monoisotopic or average mass, monosaccharide composition, glycosylation linkages (e.g. N- or O-linked), reducing terminal sugar, attached protein, taxonomy, tissue or cell type and GlycoSuiteDB accession number. Advanced queries using combinations of these parameters are also possible. GlycoSuiteDB can be accessed on the web at http://www.glycosuite.com.
Resumo:
A new thermodynamic database for normal and modified nucleic acids has been developed. This Thermodynamic Database for Nucleic Acids (NTDB) includes sequence, structure and thermodynamic information as well as experimental methods and conditions. In this release, there are 1851 sequences containing both normal and modified nucleic acids. A user-friendly web-based interface has been developed to allow data searching under different conditions. Useful thermodynamic tools for the study of nucleic acids have been collected and linked for easy usage. NTDB is available at http://ntdb.chem.cuhk.edu.hk.
Resumo:
INTRODUÇÃO: Durante procedimentos endovasculares, estão presentes os riscos relacionados ao uso dos contrastes iodados, tais como a nefropatia por contraste, uma vez que é fundamental o emprego de um meio de contraste para a obtenção das imagens radiológicas vasculares. A injeção intravascular de gás CO2 purificado é reconhecidamente uma alternativa relativamente mais segura ao contraste iodado, contudo, seu manuseio artesanal pode também trazer dificuldades técnicas e riscos aos pacientes. Para contemplar estas questões, foi desenvolvido o protótipo de um injetor intravascular de CO2 medicinal, microprocessado, dedicado à obtenção de imagens angiográficas. OBJETIVOS: Realizar os testes de viabilidade técnica inicial do protótipo em modelo in vivo. MÉTODOS: Realizar a angioplastia da artéria renal esquerda de 10 porcos, divididos em 2 grupos: Grupo 1 (n=5) injeção de contraste iodado, Grupo 2 (n=5) injeção de CO2 através do protótipo. Monitorização clínica e laboratorial dos animais no pré, intra e pós-operatório, com exames de função renal na véspera e 48h após os procedimentos e 3 gasometrias arteriais seriadas no intra-operatório. Observação clínica foi mantida por 48h no pós- operatório. RESULTADOS: Os procedimentos de angioplastia com CO2 foram realizados com sucesso técnico de 100%, sem necessidade de complementação com injeção de contraste iodado no Grupo 2. Não foram identificadas falhas no protótipo em funcionamento. Não foram identificadas alterações clínicas ou radiológicas sugestivas de contaminação por ar ambiente do sistema de CO2 e nem alterações laboratoriais nos animais. As imagens angiográficas obtidas no Grupo 2 foram consideradas, numa avaliação subjetiva, relativamente inferiores às imagens obtidas no Grupo 1. DISCUSSÃO: A qualidade inferior de imagem no Grupo 2 pode ser atribuída ao equipamento de fluoroscopia utilizado, com software desatualizado em relação aos equipamentos atuais, que incluem pré-configurações para angiografia com CO2; no entanto, ainda assim todos os procedimentos propostos no Grupo 2 foram realizados com sucesso técnico, o que nos leva a classificar as imagens deste grupo 2 como satisfatórias. O manuseio do aparelho mostrou-se ágil e eficiente, com a programação dos parâmetros sendo realizada com facilidade através do visor \"touch screen\", comparativamente superior ao método artesanal de injeção de CO2 com seringas em selo d\'água. CONCLUSÕES: O protótipo do aparelho injetor intravascular de CO2 funcionou de forma adequada durante os testes e as imagens obtidas permitiram a compleição com sucesso dos procedimentos. Portanto, os resultados positivos obtidos sugerem que o equipamento é tecnicamente viável
Resumo:
Este trabalho trata do desenvolvimento de um sistema computacional, para a geração de dados e apresentação de resultados, específico para as estruturas de edifícios. As rotinas desenvolvidas devem trabalhar em conjunto com um sistema computacional para análise de estruturas com base no Método dos Elementos Finitos, contemplando tanto as estruturas de pavimentos; com a utilização de elementos de barra, placa/casca e molas; como as estruturas de contraventamento; com a utilização de elementos de barra tridimensional e recursos especiais como nó mestre e trechos rígidos. A linguagem computacional adotada para a elaboração das rotinas mencionadas é o Object Pascal do DELPHI, um ambiente de programação visual estruturado na programação orientada a objetos do Object Pascal. Essa escolha tem como objetivo, conseguir um sistema computacional onde alterações e adições de funções possam ser realizadas com facilidade, sem que todo o conjunto de programas precise ser analisado e modificado. Por fim, o programa deve servir como um verdadeiro ambiente para análise de estruturas de edifícios, controlando através de uma interface amigável com o usuário uma série de outros programas já desenvolvidos em FORTRAN, como por exemplo o dimensionamento de vigas, pilares, etc.
Resumo:
Globally, increasing demands for biofuels have intensified the rate of land-use change (LUC) for expansion of bioenergy crops. In Brazil, the world\'s largest sugarcane-ethanol producer, sugarcane area has expanded by 35% (3.2 Mha) in the last decade. Sugarcane expansion has resulted in extensive pastures being subjected to intensive mechanization and large inputs of agrochemicals, which have direct implications on soil quality (SQ). We hypothesized that LUC to support sugarcane expansion leads to overall SQ degradation. To test this hypothesis we conducted a field-study at three sites in the central-southern region, to assess the SQ response to the primary LUC sequence (i.e., native vegetation to pasture to sugarcane) associated to sugarcane expansion in Brazil. At each land use site undisturbed and disturbed soil samples were collected from the 0-10, 10-20 and 20-30 cm depths. Soil chemical and physical attributes were measured through on-farm and laboratory analyses. A dataset of soil biological attributes was also included in this study. Initially, the LUC effects on each individual soil indicator were quantified. Afterward, the LUC effects on overall SQ were assessed using the Soil Management Assessment Framework (SMAF). Furthermore, six SQ indexes (SQI) were developed using approaches with increasing complexity. Our results showed that long-term conversion from native vegetation to extensive pasture led to soil acidification, significant depletion of soil organic carbon (SOC) and macronutrients [especially phosphorus (P)] and severe soil compaction, which creates an unbalanced ratio between water- and air-filled pore space within the soil and increases mechanical resistance to root growth. Conversion from pasture to sugarcane improved soil chemical quality by correcting for acidity and increasing macronutrient levels. Despite those improvements, most of the P added by fertilizer accumulated in less plant-available P forms, confirming the key role of organic P has in providing available P to plants in Brazilian soils. Long-term sugarcane production subsequently led to further SOC depletions. Sugarcane production had slight negative impacts on soil physical attributes compared to pasture land. Although tillage performed for sugarcane planting and replanting alleviates soil compaction, our data suggested that the effects are short-term with persistent, reoccurring soil consolidation that increases erosion risk over time. These soil physical changes, induced by LUC, were detected by quantitative soil physical properties as well as by visual evaluation of soil structure (VESS), an on-farm and user-friendly method for evaluating SQ. The SMAF efficiently detected overall SQ response to LUC and it could be reliably used under Brazilian soil conditions. Furthermore, since all of the SQI values developed in this study were able to rank SQ among land uses. We recommend that simpler and more cost-effective SQI strategies using a small number of carefully chosen soil indicators, such as: pH, P, K, VESS and SOC, and proportional weighting within of each soil sectors (chemical, physical and biological) be used as a protocol for SQ assessments in Brazilian sugarcane areas. The SMAF and SQI scores suggested that long-term conversion from native vegetation to extensive pasture depleted overall SQ, driven by decreases in chemical, physical and biological indicators. In contrast, conversion from pasture to sugarcane had no negative impacts on overall SQ, mainly because chemical improvements offset negative impacts on biological and physical indicators. Therefore, our findings can be used as scientific base by farmers, extension agents and public policy makers to adopt and develop management strategies that sustain and/or improving SQ and the sustainability of sugarcane production in Brazil.
Resumo:
The Adult Attachment Projective Picture System (AAP) is the first performance- based measure of adult attachment to be developed. The purpose of the measure is to provide a clinical understanding of an adult client's attachment status and associated coping mechanisms. The AAP is a relatively new measure that has yet to be examined from a utility perspective. In the current study, seven psychologists completed a structured survey in order to identify their perspectives of the AAP and its utility as a clinical instrument. A phenomenological qualitative analysis of the data was conducted to derive themes about the AAP and its clinical utility. Analyses aimed to answer the following: What clinical considerations do clinician's focus on when deciding to use this measure? What are common factors among clinician's who do use the measure as well as those who do not? What aspects of the measure are user-friendly and what aspects are difficult? General themes that emerged include (a) the clinical information provided by the AAP is viewed by those who use it as unique and beneficial; (b) time commitment and cost for the clinician are common considerations when clinician's are deciding whether or not to use the AAP or when pursuing training; (c) the AAP provides an increased understanding of one's relational capacities and defenses; and (d) the coding system and transcription process are difficult aspects of the AAP and influence how and/or when it is used. In addition to these themes, multiple respondents discussed potential changes for the AAP that would increase their future use of the instrument. Finally, the implications of these results are discussed.
Resumo:
A ciência na qual se estuda a deformação de um fluido no qual é aplicada uma tensão de cisalhamento é conhecida como reologia e o equipamento utilizado para a realização dos ensaios é chamado de reômetro. Devido a impraticabilidade de uso de reômetros comerciais, diversos pesquisadores desenvolveram reômetros capazes de analisar suspensões de macropartículas, baseados nos mesmos princípios de funcionamento dos equipamentos já existentes. Em alguns casos, a medição do torque do motor é realizada pela aquisição da tensão, uma vez que esta é proporcional ao torque. Entretanto, para melhor compreensão do resultado e para evitar a possibilidade de conclusões precipitadas, vê-se necessária correta interpretação do sinal elétrico, precisando avaliar qual frequência do sinal é relevante para o ensaio e, também, qual a melhor taxa de amostragem. Além da aquisição, para que o ensaio reológico seja realizado com precisão, é indispensável ótimo controle da taxa ou tensão do motor e uma alternativa é a utilização de um servomotor e um servoconversor. No caso desse ser comercial é essencial saber configurá-lo. Para facilitar o usuário leigo, alguns pesquisadores desenvolveram softwares para controle do equipamento e análise dos dados. Assim, o presente trabalho tem como objetivo propor uma metodologia para compreender o sinal aquisitado de um reômetro servo controlado e desenvolvimento do software de análise para o tratamento dos dados obtidos a partir de ensaios reológicos. Verificou-se a melhor configuração do servocontrolador, a melhor taxa de amostragem, de no mínimo 20 amostras/segundo, e, também, desenvolveu-se um filtro digital passa-baixa do tipo FIR para remover a frequência indesejada. Além disso, foi desenvolvido um software utilizando uma rotina em Matlab e uma interface gráfica do usuário (Graphical User Interface - GUI), para o pós-processamento dos dados para auxiliar o usuário leigo no tratamento e interpretação do resultado, que se mostrou eficaz.
Resumo:
This paper provides an overview of a case study research that investigated the use of Digital Library (DL) resources in two undergraduate classes and explored faculty and students’ perceptions of educational digital libraries. This study found that students and faculty use academic DLs primarily for textual resources, but turn to the open Web for visual and multimedia resources. The study participants did not perceive academic libraries as a useful source of digital images and used search engines when searching for visual resources. The limited use of digital library resources for teaching and learning is associated with perceptions of usefulness and ease of use, especially if considered in a broader information landscape, in conjunction with other library information systems, and in the context of Web resources. The limited use of digital libraries is related to the following perceptions: 1) Library systems are not viewed as user-friendly, which in turn discourages potential users from trying DLs provided by academic libraries; 2) Academic libraries are perceived as places of primarily textual resources; perceptions of usefulness, especially in regard to relevance of content, coverage, and currency, seem to have a negative effect on user intention to use DLs, especially when searching for visual materials.