928 resultados para Interactive computer systems
Resumo:
É possível assistir nos dias de hoje, a um processo tecnológico evolutivo acentuado por toda a parte do globo. No caso das empresas, quer as pequenas, médias ou de grandes dimensões, estão cada vez mais dependentes dos sistemas informatizados para realizar os seus processos de negócio, e consequentemente à geração de informação referente aos negócios e onde, muitas das vezes, os dados não têm qualquer relacionamento entre si. A maioria dos sistemas convencionais informáticos não são projetados para gerir e armazenar informações estratégicas, impossibilitando assim que esta sirva de apoio como recurso estratégico. Portanto, as decisões são tomadas com base na experiência dos administradores, quando poderiam serem baseadas em factos históricos armazenados pelos diversos sistemas. Genericamente, as organizações possuem muitos dados, mas na maioria dos casos extraem pouca informação, o que é um problema em termos de mercados competitivos. Como as organizações procuram evoluir e superar a concorrência nas tomadas de decisão, surge neste contexto o termo Business Intelligence(BI). A GisGeo Information Systems é uma empresa que desenvolve software baseado em SIG (sistemas de informação geográfica) recorrendo a uma filosofia de ferramentas open-source. O seu principal produto baseia-se na localização geográfica dos vários tipos de viaturas, na recolha de dados, e consequentemente a sua análise (quilómetros percorridos, duração de uma viagem entre dois pontos definidos, consumo de combustível, etc.). Neste âmbito surge o tema deste projeto que tem objetivo de dar uma perspetiva diferente aos dados existentes, cruzando os conceitos BI com o sistema implementado na empresa de acordo com a sua filosofia. Neste projeto são abordados alguns dos conceitos mais importantes adjacentes a BI como, por exemplo, modelo dimensional, data Warehouse, o processo ETL e OLAP, seguindo a metodologia de Ralph Kimball. São também estudadas algumas das principais ferramentas open-source existentes no mercado, assim como quais as suas vantagens/desvantagens relativamente entre elas. Em conclusão, é então apresentada a solução desenvolvida de acordo com os critérios enumerados pela empresa como prova de conceito da aplicabilidade da área Business Intelligence ao ramo de Sistemas de informação Geográfica (SIG), recorrendo a uma ferramenta open-source que suporte visualização dos dados através de dashboards.
Resumo:
A gestão e monitorização de redes é uma necessidade fundamental em qualquer organização, quer seja grande ou pequena. A sua importância tem de ser refletida na eficiência e no aumento de informação útil disponível, contribuindo para uma maior eficácia na realização das tarefas em ambientes tecnologicamente avançados, com elevadas necessidades de desempenho e disponibilidade dos recursos dessa tecnologia. Para alcançar estes objetivos é fundamental possuir as ferramentas de gestão de redes adequadas. Nomeadamente ferramentas de monitorização. A classificação de tráfego também se revela fundamental para garantir a qualidade das comunicações e prevenir ataques indesejados aumentando assim a segurança nas comunicações. Paralelamente, principalmente em organizações grandes, é relevante a inventariação dos equipamentos utilizados numa rede. Neste trabalho pretende-se implementar e colocar em funcionamento um sistema autónomo de monitorização, classificação de protocolos e realização de inventários. Todas estas ferramentas têm como objetivo apoiar os administradores e técnicos de sistemas informáticos. Os estudos das aplicações que melhor se adequam à realidade da organização culminaram num acréscimo de conhecimento e aprendizagem que irão contribuir para um melhor desempenho da rede em que o principal beneficiário será o cidadão.
Resumo:
Current computer systems have evolved from featuring only a single processing unit and limited RAM, in the order of kilobytes or few megabytes, to include several multicore processors, o↵ering in the order of several tens of concurrent execution contexts, and have main memory in the order of several tens to hundreds of gigabytes. This allows to keep all data of many applications in the main memory, leading to the development of inmemory databases. Compared to disk-backed databases, in-memory databases (IMDBs) are expected to provide better performance by incurring in less I/O overhead. In this dissertation, we present a scalability study of two general purpose IMDBs on multicore systems. The results show that current general purpose IMDBs do not scale on multicores, due to contention among threads running concurrent transactions. In this work, we explore di↵erent direction to overcome the scalability issues of IMDBs in multicores, while enforcing strong isolation semantics. First, we present a solution that requires no modification to either database systems or to the applications, called MacroDB. MacroDB replicates the database among several engines, using a master-slave replication scheme, where update transactions execute on the master, while read-only transactions execute on slaves. This reduces contention, allowing MacroDB to o↵er scalable performance under read-only workloads, while updateintensive workloads su↵er from performance loss, when compared to the standalone engine. Second, we delve into the database engine and identify the concurrency control mechanism used by the storage sub-component as a scalability bottleneck. We then propose a new locking scheme that allows the removal of such mechanisms from the storage sub-component. This modification o↵ers performance improvement under all workloads, when compared to the standalone engine, while scalability is limited to read-only workloads. Next we addressed the scalability limitations for update-intensive workloads, and propose the reduction of locking granularity from the table level to the attribute level. This further improved performance for intensive and moderate update workloads, at a slight cost for read-only workloads. Scalability is limited to intensive-read and read-only workloads. Finally, we investigate the impact applications have on the performance of database systems, by studying how operation order inside transactions influences the database performance. We then propose a Read before Write (RbW) interaction pattern, under which transaction perform all read operations before executing write operations. The RbW pattern allowed TPC-C to achieve scalable performance on our modified engine for all workloads. Additionally, the RbW pattern allowed our modified engine to achieve scalable performance on multicores, almost up to the total number of cores, while enforcing strong isolation.
Resumo:
Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação
Resumo:
Tese de Doutoramento em Engenharia Eletrónica e Computadores.
Resumo:
Dissertação de mestrado em Direito e Informática
Resumo:
The modern computer systems that are in use nowadays are mostly processor-dominant, which means that their memory is treated as a slave element that has one major task – to serve execution units data requirements. This organization is based on the classical Von Neumann's computer model, proposed seven decades ago in the 1950ties. This model suffers from a substantial processor-memory bottleneck, because of the huge disparity between the processor and memory working speeds. In order to solve this problem, in this paper we propose a novel architecture and organization of processors and computers that attempts to provide stronger match between the processing and memory elements in the system. The proposed model utilizes a memory-centric architecture, wherein the execution hardware is added to the memory code blocks, allowing them to perform instructions scheduling and execution, management of data requests and responses, and direct communication with the data memory blocks without using registers. This organization allows concurrent execution of all threads, processes or program segments that fit in the memory at a given time. Therefore, in this paper we describe several possibilities for organizing the proposed memory-centric system with multiple data and logicmemory merged blocks, by utilizing a high-speed interconnection switching network.
Resumo:
As computer chips implementation technologies evolve to obtain more performance, those computer chips are using smaller components, with bigger density of transistors and working with lower power voltages. All these factors turn the computer chips less robust and increase the probability of a transient fault. Transient faults may occur once and never more happen the same way in a computer system lifetime. There are distinct consequences when a transient fault occurs: the operating system might abort the execution if the change produced by the fault is detected by bad behavior of the application, but the biggest risk is that the fault produces an undetected data corruption that modifies the application final result without warnings (for example a bit flip in some crucial data). With the objective of researching transient faults in computer system’s processor registers and memory we have developed an extension of HP’s and AMD joint full system simulation environment, named COTSon. This extension allows the injection of faults that change a single bit in processor registers and memory of the simulated computer. The developed fault injection system makes it possible to: evaluate the effects of single bit flip transient faults in an application, analyze an application robustness against single bit flip transient faults and validate fault detection mechanism and strategies.
Resumo:
Despite opportunities for radiation provided by spatio-temporal isolation, the basic morphological plan of pulmonate snails has remained conservative. In consequence of the resulting dearth of morphological characters and their plasticity, there is a case for using biochemical characters such as exogenous chemicals released by the snails (e.g. amino acids) and their chemoreception niche as taxonomic aids to classify snails of medical importance. As these same chemicals are used by snails to distinguish conspecifics they could also be used as "environmental antibodies" in controlled release formulations (CRF's) designed to remove target snails in a specific, cost-effective and ecologically acceptable manner. The snails, surface-living bacteria, algae and macrophytic plants are considered as co-evolved, interactive modular systems with strong mutualistic elements. Recently, anthropogenic perturbations such as deforestation, and damming of flowing waters, have benefited these modules whereas others such as river canalization, acid deposition, accumulation of pesticide residues and eutrophication have harmed them. Research is needed to elucidate the factors which limit the growth of snails in primitive habitats, uninfluenced by man, as well as in those subject to harmful anthropogenic factors. The understanding thus gained could be applied to develop cost-effective primary health care strategies to reduce or prevent transmission of schistosomiasis and other water related diseases.
Resumo:
L'objectiu del projecte ha estat la millora de la qualitat docent de l'assignatura Estructura de Computadors I, impartida a la Facultat d'Informàtica de Barcelona (UPC) dins els estudis d'Enginyeria Informàtica, Enginyeria Tècnica en Informàtica de Sistemes i Enginyeria Tècnica en Informàtica de Gestió. S'ha treballat en quatre línies d'actuació: (i) aplicació de tècniques d'aprenentatge actiu a les classes; (ii) aplicació de tècniques d'aprenentage cooperatiu no presencials; (iii) implantació de noves TIC i adaptació de les ja emprades per tal d'habilitar mecanismes d'autoavaluació i de realimentació de la informació referent a l'avaluació; i (iv) difusió de les experiències derivades de les diferents actuacions. Referent a les dues primeres mesures s'avalua l'impacte de metodologies docents que afavoreixen l'aprenentatge actiu tant de forma presencial com no presencial, obtenint-se clares millores en el rendiment respecte a altres metodologies utilitzades anteriorment enfocades a la realització de classes del tipus magistral, en què únicament es posa a l'abast dels alumnes la documentació de l'assignatura per a què puguin treballar de forma responsable. Les noves metodologies fan especial èmfasi en el treball en grup a classe i la compartició de les experiències fora de classe a través de fòrums de participació. La mesura que ha requerit més esforç en aquest projecte és la tercera, amb el desenvolupament d'un entorn d'interfície web orientat a la correcció automàtica de programes escrits en llenguatge assemblador. Aquest entorn permet l'autoavaluació per part dels alumnes dels exercicis realitzats a l'assignatura, amb obtenció d'informació detallada sobre les errades comeses. El treball realitzat dins d'aquest projecte s'ha publicat en congressos rellevants en l'àrea docent tant a nivell estatal com internacional. El codi font de l'entorn esmentat anteriorment es posa a disposició pública a través d'un enllaç a la web.
Resumo:
Aquest projecte de dos anys de durada, ha tingut com a objectius: el disseny i la creació de recursos multimèdia, així com, l’optimització de metodologies d'aplicació de sistemes telemàtics interactius per a la millora de la docència universitària. Com a entorn telemàtic s’ha utilitzat la plataforma de treball cooperatiu BSCW (Basic Support for Cooperative Work). S'ha dissenyat i produït un recurs multimèdia enfocat a l'alumnat de l'assignatura troncal Ciències naturals i la seva didàctica de la diplomatura de Mestre d'Educació Primària, que porta per títol 'Alimentació i nutrició humanes i la seva didàctica’ i es pot consultar a: http://www.ub.edu/didactica_ciencies/mqd06/. Aquest material està format per dues unitats: a) Alimentació i nutrició; b) L'ensenyament-aprenentatge de la digestió humana des d'una perspectiva constructivista. Les unitats s'han orientat a la millora de la formació inicial dels futurs mestres i tenen un enfocament de clar caire constructivista, amb exercicis interactius de detecció de concepcions alternatives, així com organitzadors previs, posteriors nodes expositius i d'obtenció d'informació, exercicis interactius destinats al canvi conceptual i una interactivitat d'avaluació final amb un cert caràcter sumatiu. Cada unitat es tanca amb un mapa conceptual dels continguts tractats. La metodologia emprada en la seva elaboració és una evolució de la que l'equip de la Universitat Pompeu Fabra va encetar en la web ‘Aracné. Ciència en xarxa’: http://www.edu365.com/aulanet/aracne/ (usuari i contrasenya: guest100), i va perfeccionar a 'Idees i vincles en el segle XX. La ciència': http://www.xtec.es/aulanet/seglexx/ (cal permetre que s'obrin finestres emergents), en ambdós casos hi ha col·laborat professorat del nostre grup d'innovació docent de la UB.
Resumo:
Sistemas empotrados (embedded system).Monitorización y control de sensores inalámbricos.El sistema provee monitorización y control remoto vía internet y telefonía móvil además de acceso local y registros en base de datos.Dotado de un actuador físico para el control de elementos de potencia.
Resumo:
En este trabajo se realiza un prototipo siguiendo un diseño centrado en el usuario, además se estudiaran los distintos tipos de pantallas táctiles que existen actualmente en el mercado y la forma de cómo conseguir una aplicación fácil y manejable.
Resumo:
En este trabajo se realiza un estudio de usabilidad para la elaboración óptima de una Web de un supermercado de alimentación online. Para tal fin, se sigue la filosofía del Diseño Centrado en el Usuario. En primer lugar, se presenta un análisis del problema de cara a identificar los requisitos básicos de usabilidad que necesita una Web de esta tipología: se estudia la literatura previa sobre el tema, se consulta a los usuarios y se realiza un análisis comparativo de las principales Webs de supermercados online de ámbito nacional. En segundo lugar, se procede a la elaboración de un prototipo basado en la información recogida en la fase de análisis, y teniendo en cuenta la estructura mental de los usuarios en cuanto a la organización de los productos, obtenida mediante la técnica del card sorting. Finalmente, se procede a evaluar la calidad del prototipo elaborado con una evaluación heurística llevada a cabo por expertos. De todo ello se obtienen una serie de recomendaciones que todo sitio Web de comercio electrónico (en especial supermercados de alimentación) debería cumplir si quiere ofrecer una Web adaptada a las necesidades del usuario.
Resumo:
Breve revisión de la accesibilidad web del repositorio institucional de la UOC e información sobre herramientas de validación automática de sitios web.