943 resultados para tablet-PCs (TPC)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the most demanding needs in cloud computing and big data is that of having scalable and highly available databases. One of the ways to attend these needs is to leverage the scalable replication techniques developed in the last decade. These techniques allow increasing both the availability and scalability of databases. Many replication protocols have been proposed during the last decade. The main research challenge was how to scale under the eager replication model, the one that provides consistency across replicas. This thesis provides an in depth study of three eager database replication systems based on relational systems: Middle-R, C-JDBC and MySQL Cluster and three systems based on In-Memory Data Grids: JBoss Data Grid, Oracle Coherence and Terracotta Ehcache. Thesis explore these systems based on their architecture, replication protocols, fault tolerance and various other functionalities. It also provides experimental analysis of these systems using state-of-the art benchmarks: TPC-C and TPC-W (for relational systems) and Yahoo! Cloud Serving Benchmark (In- Memory Data Grids). Thesis also discusses three Graph Databases, Neo4j, Titan and Sparksee based on their architecture and transactional capabilities and highlights the weaker transactional consistencies provided by these systems. It discusses an implementation of snapshot isolation in Neo4j graph database to provide stronger isolation guarantees for transactions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto se encuentra adscrito a la línea de investigación de optimización de consumo en terminales multimedia móviles que el Grupo de Diseño Electrónico y Microelectrónico (GDEM) de la UPM (Universidad Politécnica de Madrid) está llevando a cabo. Los sistemas empotrados móviles (Smartphone, Tablet,...) están alimentados con baterías. En este tipo de sistemas, una de las aplicaciones que más rápidamente consume energía es la descodificación de secuencias de vídeo. En este trabajo, queremos medir el consumo de energía de distintos descodificadores de vídeo para distintas secuencias, con el objetivo de entender mejor cómo se consume esta energía y poder encontrar diferentes métodos que lo reduzcan. Para ello comenzaremos describiendo nuestro entorno de trabajo, tanto el hardware como el software utilizado. Respeto al hardware cabe destacar el uso de una PandaBoard y un Smart Power de Odroid, entre otros muchos elementos utilizados, los cuales serán debidamente explicados en las siguientes páginas de este proyecto. Mientras que para el software destaca el uso de dos tipos de descodificadores uno CBP y otro PHP, los cuales serán descritos en profundidad en los siguientes capítulos de este documento. Este entorno de trabajo nos servirá para el estudio de las diferentes secuencias de vídeo, cuya codificación ha sido llevada en paralelo con otro proyecto que se está realizando en el grupo de GDEM de la UPM, y cuyo objetivo es el estudio de la calidad subjetiva durante la descodificación del mismo conjunto de secuencias de vídeo. Todas estas secuencias de vídeo han sido codificadas con diferentes parámetros de calidad y diversas estructuras de imágenes, para obtener así un banco de pruebas lo más amplio posible. Gracias a la obtención de estas secuencias de vídeo y utilizando nuestro entorno de trabajo, pasaremos a estudiar el consumo de energía que se produce al descodificar una a una todas las posibles secuencias de vídeo, dependiendo todo esto de su estructura de imágenes, su calidad y por supuesto, el descodificador utilizado en cada caso. Para terminar, se mostrará una comparativa entre los diferentes resultados obtenidos y se hará una discusión de estos, obteniendo en este caso, un resumen de los datos más significativos, así como las conclusiones más importantes obtenidas durante todo este trabajo. Al término de este proyecto y en unión con el estudio que se está llevando a cabo en paralelo sobre la calidad subjetiva, queda como línea futura de investigación encontrar el compromiso entre el consumo de energía de diferentes secuencias de vídeo y la calidad subjetiva de dichas secuencias. ABSTRACT. This project is assigned to the research line on consumption optimization in mobile multimedia terminals carried out by the Group of Electronic Design and Microelectronics (GDEM) of the Polytechnic University of Madrid (UPM). Embedded mobile systems (smartphones, tablets...) are powered by batteries. In such systems, one of the applications that more rapidly consumes power is the decoding of video streams. In this work, we measure the power consumption of different video decoders for different streams, in order to better understand how this energy is consumed and to find different methods to reduce it. To this end, we start by describing our working environment, both hardware and software used. As for the hardware, it is worth mentioning the use of PandaBoard and Smart Power Odroid, among many other elements, which will be duly explained in the following pages of this project. As for the software, we highlight the use of two types of decoders, CBP and PHP, which will be described in detail in the following chapters of this document. This working environment will help us to study different video streams, whose coding has been perfor-med in parallel under another project that is being carried out in the GDEM group of the UPM, and whose objective is the study of subjective quality for decoding the same set of video streams. All these video streams have been encoded with different quality parameters and image structures in order to obtain the widest set of samples. Thanks to the production of these video streams and the use of our working environment, we study the power consumption that occurs when decoding one by one all possible video streams, depending on the image structure, their quality and, of course, the decoder used in each case. Finally, we show a comparison between the different results and a discussion of these, obtaining a sum-mary of the most significant data and the main conclusions obtained during this project. Upon completion of this project and in conjunction with the project on the study of subjective quality that is being carried out in parallel, a future line of research could consist in finding the compromise between power consumption of different video streams and the subjective quality of these.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Until a few years ago, most of the network communications were based in the wire as the physical media, but due to the advances and the maturity of the wireless communications, this is changing. Nowadays wireless communications offers fast, secure, efficient and reliable connections. Mobile communications are in expansion, clearly driven by the use of smart phones and other mobile devices, the use of laptops, etc… Besides that point, the inversion in the installation and maintenance of the physical medium is much lower than in wired communications, not only because the air has no cost, but because the installation and maintenance of the wire require a high economic cost. Besides the economic cost we find that wire is a more vulnerable medium to external threats such as noise, sabotages, etc… There are two different types of wireless networks: those which the structure is part of the network itself and those which have a lack of structure or any centralization, in a way that the devices that form part of the network can connect themselves in a dynamic and random way, handling also the routing of every control and information messages, this kind of networks is known as Ad-hoc. In the present work we will proceed to study one of the multiple wireless protocols that allows mobile communications, it is Optimized Link State Routing, from now on, OLSR, it is an pro-active routing, standard mechanism that works in a distributed in order to stablish the connections among the different nodes that belong to a wireless network. Thanks to this protocol it is possible to get all the routing tables in all the devices correctly updated every moment through the periodical transmission of control messages and on this way allow a complete connectivity among the devices that are part of the network and also, allow access to other external networks such as virtual private networks o Internet. This protocol could be perfectly used in environments such as airports, malls, etc… The update of the routing tables in all the devices is got thanks to the periodical transmission of control messages and finally it will offer connectivity among all the devices and the corresponding external networks. For the study of OLSR protocol we will have the help of the network simulator “Network Simulator 2”, a freeware network simulator programmed in C++ based in discrete events. This simulator is used mainly in educational and research environments and allows a very extensive range of protocols, both, wired networks protocols and wireless network protocols, what is going to be really useful to proceed to the simulation of different configurations of networks and protocols. In the present work we will also study different simulations with Network Simulator 2, in different scenarios with different configurations, wired networks, and Ad-hoc networks, where we will study OLSR Protocol. RESUMEN. Hasta hace pocos años, la mayoría de las comunicaciones de red estaban basadas en el cable como medio físico pero debido al avance y madurez alcanzados en el campo de las comunicaciones inalámbricas esto está cambiando. Hoy día las comunicaciones inalámbricas nos ofrecen conexiones veloces, seguras, eficientes y fiables. Las comunicaciones móviles se encuentran en su momento de máxima expansión, claramente impulsadas por el uso de teléfonos y demás dispositivos móviles, el uso de portátiles, etc… Además la inversión a realizar en la instalación y el mantenimiento del medio físico en las comunicaciones móviles es muchísimo menor que en comunicaciones por cable, ya no sólo porque el aire no tenga coste alguno, sino porque la instalación y mantenimiento del cable precisan de un elevado coste económico por norma. Además del coste económico nos encontramos con que es un medio más vulnerable a amenazas externas tales como el ruido, escuchas no autorizadas, sabotajes, etc… Existen dos tipos de redes inalámbricas: las constituidas por una infraestructura que forma parte más o menos de la misma y las que carecen de estructura o centralización alguna, de modo que los dispositivos que forman parte de ella pueden conectarse de manera dinámica y arbitraria entre ellos, encargándose además del encaminamiento de todos los mensajes de control e información, a este tipo de redes se las conoce como redes Ad-hoc. En el presente Proyecto de Fin de Carrera se procederá al estudio de uno de los múltiples protocolos inalámbricos que permiten comunicaciones móviles, se trata del protocolo inalámbrico Optimized Link State Routing, de ahora en adelante OLSR, un mecanismo estándar de enrutamiento pro-activo, que trabaja de manera distribuida para establecer las conexiones entre los nodos que formen parte de las redes inalámbricas Ad-hoc, las cuales carecen de un nodo central y de una infraestructura pre-existente. Gracias a este protocolo es posible conseguir que todos los equipos mantengan en todo momento las tablas de ruta actualizadas correctamente mediante la transmisión periódica de mensajes de control y así permitir una completa conectividad entre todos los equipos que formen parte de la red y, a su vez, también permitir el acceso a otras redes externas tales como redes privadas virtuales o Internet. Este protocolo sería usado en entornos tales como aeropuertos La actualización de las tablas de enrutamiento de todos los equipos se conseguirá mediante la transmisión periódica de mensajes de control y así finalmente se podrá permitir conectividad entre todos los equipos y con las correspondientes redes externas. Para el estudio del protocolo OLSR contaremos con el simulador de redes Network Simulator 2, un simulador de redes freeware programado en C++ basado en eventos discretos. Este simulador es usado principalmente en ambientes educativos y de investigación y permite la simulación tanto de protocolos unicast como multicast. El campo donde más se utiliza es precisamente en el de la investigación de redes móviles Ad-hoc. El simulador Network Simulator 2 no sólo implementa el protocolo OLSR, sino que éste implementa una amplia gama de protocolos, tanto de redes cableadas como de redes inalámbricas, lo cual va a sernos de gran utilidad para proceder a la simulación de distintas configuraciones de redes y protocolos. En el presente Proyecto de Fin de Carrera se estudiarán también diversas simulaciones con el simulador NS2 en diferentes escenarios con diversas configuraciones; redes cableadas, redes inalámbricas Ad-hoc, donde se estudiará el protocolo antes mencionado: OLSR. Este Proyecto de Fin de Carrera consta de cuatro apartados distintos: Primeramente se realizará el estudio completo del protocolo OLSR, se verán los beneficios y contrapartidas que ofrece este protocolo inalámbrico. También se verán los distintos tipos de mensajes existentes en este protocolo y unos pequeños ejemplos del funcionamiento del protocolo OLSR. Seguidamente se hará una pequeña introducción al simulador de redes Network Simulator 2, veremos la historia de este simulador, y también se hará referencia a la herramienta extra NAM, la cual nos permitirá visualizar el intercambio de paquetes que se produce entre los diferentes dispositivos de nuestras simulaciones de forma intuitiva y amigable. Se hará mención a la plataforma MASIMUM, encargada de facilitar en un entorno académico software y documentación a sus alumnos con el fin de facilitarles la investigación y la simulación de redes y sensores Ad-hoc. Finalmente se verán dos ejemplos, uno en el que se realizará una simulación entre dos PCs en un entorno Ethernet y otro ejemplo en el que se realizará una simulación inalámbrica entre cinco dispositivos móviles mediante el protocolo a estudiar, OLSR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La escritura es una actividad psicomotora muy importante en el desarrollo infantil. Tanto es así que su correcto aprendizaje condicionará el futuro de una persona, pues estará presente en todo tipo de situaciones cotidianas. La disgrafía es el término utilizado para referirse a los problemas relacionados con la escritura, y se manifiesta cuando la escritura de un determinado sujeto es ilegible o lenta como resultado de un aprendizaje fallido de los procesos motores de la escritura. Estos problemas intentan resolverse durante el desarrollo infantil mediante diferentes pruebas que miden las capacidades visomotoras de los niños basándose en criterios de forma (número y posición correcta de trazos). Sin embargo, a lo largo de los años estos criterios han demostrado no ser totalmente precisos en la detección prematura de posibles casos de disgrafía. Por ello, en este proyecto se ha desarrollado una aplicación que ayuda a ampliar la fiabilidad de los test actuales, utilizando un criterio cinemático. Esta aplicación, desarrollada para una tableta Android, muestra al niño una serie de figuras que él debe copiar en la tableta haciendo uso de un lápiz óptico. Los trazos registrados por la aplicación son analizados para valorar aspectos como la fluidez, continuidad y regularidad, ampliando así la fiabilidad de los test actuales, lo que permite desechar falsos positivos y detectar irregularidades que antes no podían ser detectadas. La aplicación desarrollada ha sido validada con un total de ocho niños de cuatro años y siete meses de media de edad, confirmando que cumple con las expectativas planteadas. ABSTRACT. Writing is a very important psychomotor activity in child development because it will be present in all kinds of everyday situations; therefore its proper learning will determine the future of the individual. Dysgraphia is the term used to refer to the problems related to writing, and it takes place when a particular person’s writing is unreadable or slow-moving as a result of a failed learning of writing motor processes. These problems are usually detected by different tests that measure children’s visual motor abilities based on shape criteria (correct number and position of strikes). However, over the years these criteria haven’t proved to be completely accurate in the early detection of possible cases of dysgraphia. Therefore, in this project is presented an application that extends the reliability of current test, using a kinematic approach. This application, developed for an Android tablet, displays a series of figures that the child must copy to the tablet by using a stylus. Strokes recorded by the application are then analyzed to assess aspects such as fluidity, continuity and regularity, expanding the reliability of the current test, discarding false positives created by the conventional criteria and detecting irregularities that previously could not be detected. The developed application has been validated with a total of eight children about four years and seven months in average age, confirming that the application fulfills the initial expectations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho é um estudo exploratório sobre o processamento de mensagens de entretenimento. O objetivo do trabalho foi propor e testar um modelo de processamento de mensagens dedicado à compreensão de jogos digitais. Para realizar tal tarefa realizou-se um extenso levantamento de técnicas de observação de usuários diante de softwares e mídias, para conhecer as qualidades e limitações de cada uma dessas técnicas, bem como de sua abordagem do problema. Também foi realizado um levantamento dos modelos de processamento de mensagens nas mídias tradicionais e nas novas mídias. Com isso foi possível propor um novo modelo de análise de processamento de mensagens de entretenimento. Uma vez criado o modelo teórico, fez-se preciso testar se os elementos propostos como participantes desse processo estavam corretos e se seriam capazes de capturar adequadamente as semelhanças e diferenças entre a interação entre jogadores e as diferentes mídias. Por essa razão, estruturou-se uma ferramenta de coleta de dados, que foi validada junto a designers de jogos digitais, uma vez que esses profissionais conhecem o processo de criação de um jogo, seus elementos e objetivos. Posteriormente, foi feito um primeiro teste, junto a praticantes de jogos digitais de diversas idades em computadores pessoais e TV digital interativa, a fim e verificar como os elementos do modelo relacionavam-se entre si. O teste seguinte fez a coleta de dados de praticantes de jogos digitais em aparelhos celulares, tendo como objetivo capturar como se dá a formação de uma experiência através do processamento da mensagem de entretenimento num meio cujas limitações são inúmeras: tamanho de tela e teclas, para citar algumas delas. Como resultado, verificou-se, por meio de testes estatísticos, que jogos praticados em meios como computadores pessoais atraem mais por seus aspectos estéticos, enquanto a apreciação de um jogo em aparelhos celulares depende muito mais de sua habilidade de manter a interação que um jogo praticado em PC. Com isso conclui-se que o processamento das mensagens de entretenimento depende da capacidade dos seus criadores em entender os limites de cada meio e usar adequadamente os elementos que compõe o ambiente de um jogo, para conseguir levar à apreciação do mesmo.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho é um estudo exploratório sobre o processamento de mensagens de entretenimento. O objetivo do trabalho foi propor e testar um modelo de processamento de mensagens dedicado à compreensão de jogos digitais. Para realizar tal tarefa realizou-se um extenso levantamento de técnicas de observação de usuários diante de softwares e mídias, para conhecer as qualidades e limitações de cada uma dessas técnicas, bem como de sua abordagem do problema. Também foi realizado um levantamento dos modelos de processamento de mensagens nas mídias tradicionais e nas novas mídias. Com isso foi possível propor um novo modelo de análise de processamento de mensagens de entretenimento. Uma vez criado o modelo teórico, fez-se preciso testar se os elementos propostos como participantes desse processo estavam corretos e se seriam capazes de capturar adequadamente as semelhanças e diferenças entre a interação entre jogadores e as diferentes mídias. Por essa razão, estruturou-se uma ferramenta de coleta de dados, que foi validada junto a designers de jogos digitais, uma vez que esses profissionais conhecem o processo de criação de um jogo, seus elementos e objetivos. Posteriormente, foi feito um primeiro teste, junto a praticantes de jogos digitais de diversas idades em computadores pessoais e TV digital interativa, a fim e verificar como os elementos do modelo relacionavam-se entre si. O teste seguinte fez a coleta de dados de praticantes de jogos digitais em aparelhos celulares, tendo como objetivo capturar como se dá a formação de uma experiência através do processamento da mensagem de entretenimento num meio cujas limitações são inúmeras: tamanho de tela e teclas, para citar algumas delas. Como resultado, verificou-se, por meio de testes estatísticos, que jogos praticados em meios como computadores pessoais atraem mais por seus aspectos estéticos, enquanto a apreciação de um jogo em aparelhos celulares depende muito mais de sua habilidade de manter a interação que um jogo praticado em PC. Com isso conclui-se que o processamento das mensagens de entretenimento depende da capacidade dos seus criadores em entender os limites de cada meio e usar adequadamente os elementos que compõe o ambiente de um jogo, para conseguir levar à apreciação do mesmo.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa considera a difusão de celulares e smartphones e as consequências deste fato em possibilidades para o ensino-aprendizagem. Aparatos de comunicação sempre estiveram ligados ao processo de ensino-aprendizagem. Entretanto, com o desenvolvimento mais intenso, nas últimas décadas, das Tecnologias de Informação e Comunicação (TIC), essa relação vem ganhando novos contornos. Surge a Internet, a evolução das máquinas computacionais e, recentemente, a explosão dos dispositivos móveis, fornecendo novos produtos e serviços convergentes. Nesse contexto, celulares e smartphones tem sido utilizados e recomendados para apoio e complemento do processo de ensino-aprendizagem: a chamada Aprendizagem Móvel. Esse ramo cresce devido à rápida expansão e barateamento dessas tecnologias na sociedade. Para verificar cientificamente essa relação foi realizada uma pesquisa de natureza qualitativa, do tipo exploratória, com dois projetos de Aprendizagem Móvel em andamento no Brasil, o Palma – Programa de Alfabetização na Língua Materna e o Escola Com Celular – ECC. Assim, a partir dos dados provenientes da pesquisa, identificamos alguns aspectos relacionados ao uso de celulares e smartphones para o processo de ensino-aprendizagem que contribuem na compreensão desse campo ainda em construção no Brasil. O uso desses dispositivos como suporte para processos de ensino-aprendizagem nos projetos estudados é delineado pelos aspectos tecnologia, dispositivo, público e contexto e novas tecnologias e Aprendizagem Móvel. O aspecto dispositivo desdobra-se em dimensões como disseminação, multifuncionalidade e acessibilidade que embasam os projetos, ainda favorece características apontadas como importantes para o processo de ensino-aprendizagem na atualidade, como mobilidade e portabilidade. Os projetos pesquisados demonstram potencial e metodologia adequada aos contextos para os quais foram criados e aplicados. Entretanto, a pesquisa indicou que ao mesmo tempo em que celulares e smartphones representam o ápice da convergência tecnológica e são considerados extremamente populares e acessíveis na sociedade contemporânea, com possibilidades concretas como nos projetos estudados, não conseguiram conquistar uma posição sólida como suporte para o ensino-aprendizagem. Tal indicação se deve, de acordo com o corpus, à carência de alguns fatores, como: fomento, as práticas se mostram extremamente dependentes da iniciativa pública ou privada para sua extensão e continuidade; sensibilização para o uso de tecnologias disponíveis, não consideram o aparelho dos próprios alunos e um planejamento que inclua, capacite e incentive o uso desses dispositivos. Além disso, a pesquisa também destaca a necessidade de uma visão crítica do uso e papel da tecnologia nesses processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A marked suppression of immune function has long been recognized as a major cause of the high morbidity and mortality rate associated with acute measles. As a hallmark of measles virus (MV)-induced immunosuppression, peripheral blood lymphocytes (PBLs) isolated from patients exhibit a significantly reduced capacity to proliferate in response to mitogens, allogens, or recall antigens. In an in vitro system we show that proliferation of naive PBLs [responder cells (RCs)] in response to a variety of stimuli was significantly impaired after cocultivation with MV-infected, UV-irradiated autologous PBLs [presenter cells (PCs)]. We further observed that a 50% reduction in proliferation of RCs could still be observed when the ratio of PC to RC was 1:100. The effect was completely abolished after physical separation of the two populations, which suggests that soluble factors were not involved. Proliferative inhibition of the RCs was observed after short cocultivation with MV-infected cells, which indicates that surface contact between one or more viral proteins and the RC population was required. We identified that the complex of both MV glycoproteins, F and H, is critically involved in triggering MV-induced suppression of mitogen-dependent proliferation, since the effect was not observed (i) using a recombinant MV in which F and H were replaced with vesicular stomatitis virus G or (ii) when either of these proteins was expressed alone. Coexpression of F and H, however, lead to a significant proliferative inhibition in the RC population. Our data indicate that a small number of MV-infected PBLs can induce a general nonresponsiveness in uninfected PBLs by surface contact, which may, in turn, account for the general suppression of immune responses observed in patients with acute measles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The gaseous second messenger nitric oxide (NO), which readily diffuses in brain tissue, has been implicated in cerebellar long-term depression (LTD), a form of synaptic plasticity thought to be involved in cerebellar learning. Can NO diffusion facilitate cerebellar learning? The inferior olive (IO) cells, which provide the error signals necessary for modifying the granule cell–Purkinje cell (PC) synapses by LTD, fire at ultra-low firing rates in vivo, rarely more than 2–4 spikes within a second. In this paper, we show that NO diffusion can improve the transmission of sporadic IO error signals to PCs within cerebellar cortical functional units, or microzones. To relate NO diffusion to adaptive behavior, we add NO diffusion and a “volumic” LTD learning rule, i.e., a learning rule that depends both on the synaptic activity and on the NO concentration at the synapse, to a cerebellar model for arm movement control. Our results show that biologically plausible diffusion leads to an increase in information transfer of the error signals to the PCs when the IO firing rate is ultra-low. This, in turn, enhances cerebellar learning as shown by improved performance in an arm-reaching task.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mice lacking the α-subunit of the heterotrimeric guanine nucleotide binding protein Gq (Gαq) are viable but suffer from ataxia with typical signs of motor discoordination. The anatomy of the cerebellum is not overtly disturbed, and excitatory synaptic transmission from parallel fibers to cerebellar Purkinje cells (PCs) and from climbing fibers (CFs) to PCs is functional. However, about 40% of adult Gαq mutant PCs remain multiply innervated by CFs because of a defect in regression of supernumerary CFs in the third postnatal week. Evidence is provided suggesting that Gαq is part of a signaling pathway that is involved in the elimination of multiple CF innervation during this period.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper describes JANUS, a modular massively parallel and reconfigurable FPGA-based computing system. Each JANUS module has a computational core and a host. The computational core is a 4x4 array of FPGA-based processing elements with nearest-neighbor data links. Processors are also directly connected to an I/O node attached to the JANUS host, a conventional PC. JANUS is tailored for, but not limited to, the requirements of a class of hard scientific applications characterized by regular code structure, unconventional data manipulation instructions and not too large data-base size. We discuss the architecture of this configurable machine, and focus on its use on Monte Carlo simulations of statistical mechanics. On this class of application JANUS achieves impressive performances: in some cases one JANUS processing element outperfoms high-end PCs by a factor ≈1000. We also discuss the role of JANUS on other classes of scientific applications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tratamento do câncer de cabeça e pescoço e a dificuldade de comunicação decorrente da laringectomia interferem de maneira significativa na qualidade de vida das pessoas acometidas, principalmente quanto aos aspectos funcionais, psicológicos e sociais. Este estudo teve como o objetivo avaliar a qualidade de vida relacionada à saúde (QVRS) de pessoas com câncer de cabeça e pescoço. Trata-se de um estudo exploratório com metodologia quantitativa, do tipo transversal. A coleta de dados foi realizada no período de maio a setembro de 2015, com 100 pessoas com câncer de cabeça e pescoço, divididas em dois grupos: G1: pessoas laringectomizadas, G2: pessoas não laringectomizadas. Para isto, foi utilizado um aplicativo de comunicação alternativa instalado em tablet e foram aplicados o Critério de Classificação Econômica Brasil (CCEB) e a escala Functional Assessment Cancer Therapy (FACT-H&N). Para a análise dos dados foram utilizados o teste exato de Fisher, teste de Kruskal-Wallis, Ancova e estatística descritiva. Como resultados observou-se a prevalência de pessoas do sexo masculino, com faixa etária entre 59 e 74 anos , casadas, aposentadas não ativas, com baixa escolaridade e baixo nível socioeconômico. Os sujeitos participantes de ambos os grupos avaliaram sua qualidade de vida global, de um modo geral, como satisfatória sendo que as funções mais acometidas foram: bem estar emocional e bem estar funcional. Quanto às comparações dos escores finais da escala, observa-se que os participantes do G1 apresentaram melhor QVRS do que os do G2 no escore FACT-G total score, o G1 apresentou melhor QVRS do que o G2, enquanto no FACT-H&N Total score e TOI o G2 apresentou resultados ligeiramente melhores, porém sem significância estatística. Quanto ao uso do LIVOX, todos os participantes que apresentaram alguma dificuldade no seu uso tinham mais de 58 anos e se declararam aposentados não ativos (p=0,04). Conclui-se que é importante o oferecimento, tanto no pré quanto no pós operatório, de cuidados que possam avaliar e melhorar a qualidade de vida relacionada à saúde das pessoas com câncer de cabeça e pescoço

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We describe the hardwired implementation of algorithms for Monte Carlo simulations of a large class of spin models. We have implemented these algorithms as VHDL codes and we have mapped them onto a dedicated processor based on a large FPGA device. The measured performance on one such processor is comparable to O(100) carefully programmed high-end PCs: it turns out to be even better for some selected spin models. We describe here codes that we are currently executing on the IANUS massively parallel FPGA-based system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ALICE is one of four major experiments of particle accelerator LHC installed in the European laboratory CERN. The management committee of the LHC accelerator has just approved a program update for this experiment. Among the upgrades planned for the coming years of the ALICE experiment is to improve the resolution and tracking efficiency maintaining the excellent particles identification ability, and to increase the read-out event rate to 100 KHz. In order to achieve this, it is necessary to update the Time Projection Chamber detector (TPC) and Muon tracking (MCH) detector modifying the read-out electronics, which is not suitable for this migration. To overcome this limitation the design, fabrication and experimental test of new ASIC named SAMPA has been proposed . This ASIC will support both positive and negative polarities, with 32 channels per chip and continuous data readout with smaller power consumption than the previous versions. This work aims to design, fabrication and experimental test of a readout front-end in 130nm CMOS technology with configurable polarity (positive/negative), peaking time and sensitivity. The new SAMPA ASIC can be used in both chambers (TPC and MCH). The proposed front-end is composed of a Charge Sensitive Amplifier (CSA) and a Semi-Gaussian shaper. In order to obtain an ASIC integrating 32 channels per chip, the design of the proposed front-end requires small area and low power consumption, but at the same time requires low noise. In this sense, a new Noise and PSRR (Power Supply Rejection Ratio) improvement technique for the CSA design without power and area impact is proposed in this work. The analysis and equations of the proposed circuit are presented which were verified by electrical simulations and experimental test of a produced chip with 5 channels of the designed front-end. The measured equivalent noise charge was <550e for 30mV/fC of sensitivity at a input capacitance of 18.5pF. The total core area of the front-end was 2300?m × 150?m, and the measured total power consumption was 9.1mW per channel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto presenta un sistema informático para ayudar a personas Asperger, que tienen problemas para recordar actividades y objetos básicos, y a sus profesores especialistas. Se ha decidido llamarlo AS (Asperger). Se compone de dos aplicaciones Android: la aplicación tutor y la aplicación usuario. La primera es para que los profesionales, desde su propia tablet, puedan centralizar y gestionar toda la información de sus alumnos creando tareas, retos y eventos específicos para cada uno. La segunda es para los móviles de las personas Asperger, se encarga de recordarles los sucesos que su tutor les ha asignado y después les pregunta si los realizaron correctamente. Ambas interfaces siguen los principios de claridad y sencillez, además la aplicación usuario es totalmente personalizable para que una persona Asperger de cualquier edad pueda interactuar y motivarse con ella. La información es almacenada localmente en cada dispositivo. Ambas aplicaciones se comunican para sincronizar los datos mediante sockets usando la tecnología WIFI. Esto permite tener un seguimiento del progreso de cada alumno desde la aplicación tutor. La implementación se ha realizado mediante una arquitectura multicapa que utiliza patrones de ingeniería del software para facilitar cualquier extensión o adaptación de la funcionalidad del sistema.