832 resultados para TWT (Electronic computer system)
Resumo:
The scalability of a computer system is its response to growth. It is also depended on its hardware, its operating system and the applications it is running. Most distributed systems technology today still depends on bus-based shared memory which do not scale well, and systems based on the grid or hypercube scheme requires significantly less connections than a full inter-connection that would exhibit a quadratic growth rate. The rapid convergence of mobile communication, digital broadcasting and network infrastructures calls for rich multimedia content that is adaptive and responsive to the needs of individuals, businesses and the public organisations. This paper will discuss the emergence of mobile Multimedia systems and provides an overview of the issues regarding design and delivery of multimedia content to mobile devices.
Resumo:
Rapid and sensitive detection of viral infections associated with Bovine Respiratory Disease (BRD) in live animals is recognized as key to minimizing the impact of this disease. ELISA-based testing is limited as it typically relies on the detection of a single viral antibody subtype within an individual test sample and testing is relatively slow and expensive. We have recently initiated a new project entitled AgriSense to develop a novel low-cost and label-free, integrated bimodal electronic biosensor system for BRD. The biosensor system will consist of an integrated multichannel thin-film-transistor biosensor and an electrochemical impedance spectroscopy biosensor, interfaced with PDMS-based microfluidic sample delivery channels. By using both sensors in tandem, nonspecific binding biomolecules must have the same mass to charge ratio as the target analyte to elicit equivalent responses from both sensors. The system will target simultaneous multiplexed sensing of the four primary viral agents involved in the development of BRD: bovine herpesvirus-1 (BHV-1), bovine parainfluenza virus-3 (BPIV-3), bovine respiratory syncytial virus (BRSV), and bovine viral diarrhea (BVD). Optimized experimental conditions derived through model antigen-antibody studies will be applied to the detection of serological markers of BRD-related infections based on IgG interaction with a panel of sensor-immobilized viral proteins. This rapid, “cowside” multiplex sensor capability presents a major step forward in disease diagnosis, helping to ensure the integrity of the agri-food supply chain by reducing the risk of disease spread during animal movement and transport.
Resumo:
A computer system's security can be compromised in many ways—a denial-of-service attack can make a server inoperable, a worm can destroy a user's private data, or an eavesdropper can reap financial rewards by inserting himself in the communication link between a customer and her bank through a man-in-the-middle (MITM) attack. What all these scenarios have in common is that the adversary is an untrusted entity that attacks a system from the outside—we assume that the computers under attack are operated by benign and trusted users. But if we remove this assumption, if we allow anyone operating a computer system—from system administrators down to ordinary users—to compromise that system's security, we find ourselves in a scenario that has received comparatively little attention.
Resumo:
Projecto Final para obtenção do grau de Mestre em Engenharia Informática e de Computadores
The utilization bound of non-preemptive rate-monotonic scheduling in controller area networks is 25%
Resumo:
Consider a distributed computer system comprising many computer nodes, each interconnected with a controller area network (CAN) bus. We prove that if priorities to message streams are assigned using rate-monotonic (RM) and if the requested capacity of the CAN bus does not exceed 25% then all deadlines are met.
Resumo:
RESUMO - Os erros de medicação (EM) são uma das principais causas de eventos adversos, estimando-se serem as causas não relacionados com procedimentos cirúrgicos mais frequentes. Estes podem ser classificados por erros latentes ou erros ativos. Objetivos Definiram-se como principais objetivos deste estudo, determinar a prevalência de EM ativos num internamento hospitalar evitados e não evitados, nos momentos da prescrição escrita, transcrição, distribuição e administração, bem como a sua relação com algumas variáveis, como o Grupo farmacológico, Via de administração, Especialidade médica do prescritor e Área médica do médico responsável pelo episódio de internamento (MREI). Metodologia O estudo foi do tipo observacional descritivo de abordagem quantitativa, transversal com recrutamento prospetivo. Foi utilizado um instrumento de observação (check-list) para o registo de todos os EM e das variáveis em cada fase. Resultados Foram observadas 513 unidades amostrais com uma prevalência de 98,2% de EM, num total de 1655 erros dos quais 75% foram evitados. Nas variáveis Grupo farmacológico e Área médica do MREI não foram encontradas relações estatísticas relevantes. Obteve-se um OR=1,97 [1,18;3,27] para medicamentos orais quando comparados aos endovenosos nos erros de prescrição (EP) e um OR=7 [2,77;17,71] quando comparados com os endovenosos na transcrição dos Serviços Farmacêuticos (TSF). A anestesiologia apresentou um OR=0,41 [0,27;0,63] nos EP comparativamente às outras especialidades. Do total de EM observaram-se 30% de erros de prescrição (EP), 20% de erros na transcrição do internamento, 36% de erros na TSF, 2% de erros na distribuição e 12% de erros na administração. Os erros mais prevalentes foram a identificação do prescritor ilegível (16%) e a identificação do doente omissa na TSF (16%). Conclusão Apesar da elevada prevalência de EM observados, a maioria dos erros foram corrigidos e não chegaram ao doente. Tendo em conta os EM observados, a utilização de meios informáticos e o aumento da adesão dos enfermeiros ao procedimento de identificação dos doentes poderão permitir a redução do número de EM em cerca de 80%, reduzindo também a probabilidade de ocorrência de eventos adversos relacionados com os erros ativos na utilização de medicamentos.
Resumo:
RESUMO - Introdução: A literatura aponta que a gravidez é um período do ciclo reprodutivo associado com o excesso de peso, que se tem tornado um problema de saúde pública em ascensão. Na verdade, evidências sugerem que o excessivo peso pré-gestacional e o ganho ponderal excessivo estão associados a um peso elevado do RN. Objetivos: Relacionar o IMC antes da conceção e o ganho ponderal durante a gestação com o PN do RN. Métodos: Foi realizado um estudo epidemiológico, analítico, observacional e transversal, com uma amostra de cento e três mães e respetivos RNs, de termo, saudáveis e de gravidez única, da Unidade de Obstetrícia do Hospital Beatriz Ângelo. Estas foram recrutadas entre novembro de 2012 e março de 2013 inclusive. Para tal, foram recolhidos dados clínicos e outras informações relativas à gravidez e parto, nomeadamente o PN, através do sistema informático. Resultados: Após a análise dos resultados, constatou-se que mães com IMC superior a 25 antes da gravidez apresentam ganho ponderal durante a gravidez acima dos valores recomendados (47,2%). A prevalência de macrossomia e baixo peso ao nascer também foi maior em mães com excesso de peso (p=0,021), tal como de PIG e GIG (p=0,004). Observando a influência do ganho ponderal verificou-se que 9,5% (n=4) das mães com ganho ponderal excessivo tiveram RN com elevado peso ao nascer, enquanto 14,3% (n=4) das mães com ganho ponderal abaixo do recomendado tiveram RN com baixo peso ao nascer (p=0,018). Verificou-se também que o tempo de gestação é maior em mães com ganho ponderal acima do recomendado (p=0,024), e que este fator está positivamente associado com o PN (r=0,218; p=0,029), comprimento (r=0,221; p=0,027) e PC (r=0,249; p=0,012) do RN. No que se refere às correlações, encontrou-se uma correlação positiva moderada entre os fatores maternos (peso antes de engravidar; IMC pré-gestacional; e ganho ponderal) e o PN. Discussão/Conclusão: Desta forma, podemos concluir que tanto o excesso de peso pré-gestacional como o ganho de peso inadequado durante a gestação têm implicações diretas no peso do recém-nascido, nomeadamente aumentando o risco de macrossomia fetal.
Resumo:
RESUMO - A Segurança do Doente tem assumido uma relevância crescente nas organizações de saúde, resultado da divulgação de diversos estudos que revelaram a magnitude deste problema e simultaneamente, de uma maior pressão por parte da opinião pública e da comunicação social. Este estudo pretende desenvolver e avaliar a performance de um sistema eletrónico de deteção de eventos adversos, baseado num Data Warehouse, por comparação com os resultados obtidos pela metodologia tradicional de revisão dos registos clínicos. O objetivo principal do trabalho consistiu em identificar um conjunto de triggers / indicadores de alerta que permitam detetar potenciais eventos adversos mais comuns. O sistema desenvolvido apresentou um Valor Preditivo Positivo de 18.2%, uma sensibilidade de 65.1% e uma especificidade de 68.6%, sendo constituído por nove indicadores baseados em informação clínica e 445 códigos do ICD-9-CM, relativos a diagnósticos e procedimentos. Apesar de terem algumas limitações, os sistemas eletrónicos de deteção de eventos adversos apresentam inúmeras potencialidades, nomeadamente a utilização em tempo real e em complemento a metodologias já existentes. Considerando a importância da problemática em análise e a necessidade de aprofundar os resultados obtidos neste trabalho de projeto, seria relevante a sua extensão a um universo mais alargado de instituições hospitalares, estando a sua replicabilidade facilitada, uma vez que o Data Warehouse tem por base um conjunto de aplicações disseminadas a nível nacional. O desenvolvimento e a consolidação dos sistemas eletrónicos de deteção de eventos adversos constitui inegavelmente uma área de futuro, com reflexos ao nível da melhoria da informação existente nas organizações e que contribuirá decisivamente para a melhoria dos cuidados de saúde prestados aos doentes.
Resumo:
A detailed theoretical investigation of the large amplitude motions in the S, excited electronic state of formic acid (HCOOH) was done. This study focussed on the the S, «- So electronic band system of formic acid (HCOOH). The torsion and wagging large amplitude motions of the S, were considered in detail. The potential surfaces were simulated using RHF/UHF ab-initio calculations for the two electronic states. The energy levels were evaluated by the variational method using free rotor basis functions for the torsional coordinates and harmonic oscillator basis functions for the wagging coordinates. The simulated spectrum was compared to the slit-jet-cooled fluorescence excitation spectrum allowing for the assignment of several vibronic bands. A rotational analysis of certain bands predicted that the individual bands are a mixture of rotational a, b and c-type components.The electronically allowed transition results in the c-type or Franck-Condon band and the electronically forbidden, but vibronically allowed transition creates the a/b-type or Herzberg-Teller components. The inversion splitting between these two band types differs for each band. The analysis was able to predict the ratio of the a, b and c-type components of each band.
Resumo:
Traditionally, we've focussed on the question of how to make a system easy to code the first time, or perhaps on how to ease the system's continued evolution. But if we look at life cycle costs, then we must conclude that the important question is how to make a system easy to operate. To do this we need to make it easy for the operators to see what's going on and to then manipulate the system so that it does what it is supposed to. This is a radically different criterion for success. What makes a computer system visible and controllable? This is a difficult question, but it's clear that today's modern operating systems with nearly 50 million source lines of code are neither. Strikingly, the MIT Lisp Machine and its commercial successors provided almost the same functionality as today's mainstream sytsems, but with only 1 Million lines of code. This paper is a retrospective examination of the features of the Lisp Machine hardware and software system. Our key claim is that by building the Object Abstraction into the lowest tiers of the system, great synergy and clarity were obtained. It is our hope that this is a lesson that can impact tomorrow's designs. We also speculate on how the spirit of the Lisp Machine could be extended to include a comprehensive access control model and how new layers of abstraction could further enrich this model.
Resumo:
Conferència emmarcada dins el 2on Workshop Biblioteca UdG: La Universitat de Girona davant els reptes del nou Espai Europeu d'Educació Superior, on s'exposen les últimes novetats del programa Millennium referent a les estadístiques, Url checker, materials booking, scheduler
Resumo:
Es parla del que va suposar canviar de sistema de gestió de biblioteques, de VTLS a Millennium. Es fa un resum de les actuacions precanvi, del calendari d'implementació i formació, les dates clau. I, per últim, es donen alguns exemples de catàlegs: University of California i la Universidad Complutense
Resumo:
S'exposa que MetaLib serà el portal des d'on s'accedirà als recursos electrònics de la Biblioteca de la UdG. A més d'explicar com accedir-hi, quins tipus de recursos-e s'hi poden trobar, què són els grups de recursos, etc
Resumo:
Tradicionalment, la reproducció del mon real se'ns ha mostrat a traves d'imatges planes. Aquestes imatges se solien materialitzar mitjançant pintures sobre tela o be amb dibuixos. Avui, per sort, encara podem veure pintures fetes a ma, tot i que la majoria d'imatges s'adquireixen mitjançant càmeres, i es mostren directament a una audiència, com en el cinema, la televisió o exposicions de fotografies, o be son processades per un sistema computeritzat per tal d'obtenir un resultat en particular. Aquests processaments s'apliquen en camps com en el control de qualitat industrial o be en la recerca mes puntera en intel·ligència artificial. Aplicant algorismes de processament de nivell mitja es poden obtenir imatges 3D a partir d'imatges 2D, utilitzant tècniques ben conegudes anomenades Shape From X, on X es el mètode per obtenir la tercera dimensió, i varia en funció de la tècnica que s'utilitza a tal nalitat. Tot i que l'evolució cap a la càmera 3D va començar en els 90, cal que les tècniques per obtenir les formes tridimensionals siguin mes i mes acurades. Les aplicacions dels escàners 3D han augmentat considerablement en els darrers anys, especialment en camps com el lleure, diagnosi/cirurgia assistida, robòtica, etc. Una de les tècniques mes utilitzades per obtenir informació 3D d'una escena, es la triangulació, i mes concretament, la utilització d'escàners laser tridimensionals. Des de la seva aparició formal en publicacions científiques al 1971 [SS71], hi ha hagut contribucions per solucionar problemes inherents com ara la disminució d'oclusions, millora de la precisió, velocitat d'adquisició, descripció de la forma, etc. Tots i cadascun dels mètodes per obtenir punts 3D d'una escena te associat un procés de calibració, i aquest procés juga un paper decisiu en el rendiment d'un dispositiu d'adquisició tridimensional. La nalitat d'aquesta tesi es la d'abordar el problema de l'adquisició de forma 3D, des d'un punt de vista total, reportant un estat de l'art sobre escàners laser basats en triangulació, provant el funcionament i rendiment de diferents sistemes, i fent aportacions per millorar la precisió en la detecció del feix laser, especialment en condicions adverses, i solucionant el problema de la calibració a partir de mètodes geomètrics projectius.
Resumo:
Would a research assistant - who can search for ideas related to those you are working on, network with others (but only share the things you have chosen to share), doesn’t need coffee and who might even, one day, appear to be conscious - help you get your work done? Would it help your students learn? There is a body of work showing that digital learning assistants can be a benefit to learners. It has been suggested that adaptive, caring, agents are more beneficial. Would a conscious agent be more caring, more adaptive, and better able to deal with changes in its learning partner’s life? Allow the system to try to dynamically model the user, so that it can make predictions about what is needed next, and how effective a particular intervention will be. Now, given that the system is essentially doing the same things as the user, why don’t we design the system so that it can try to model itself in the same way? This should mimic a primitive self-awareness. People develop their personalities, their identities, through interacting with others. It takes years for a human to develop a full sense of self. Nobody should expect a prototypical conscious computer system to be able to develop any faster than that. How can we provide a computer system with enough social contact to enable it to learn about itself and others? We can make it part of a network. Not just chatting with other computers about computer ‘stuff’, but involved in real human activity. Exposed to ‘raw meaning’ – the developing folksonomies coming out of the learning activities of humans, whether they are traditional students or lifelong learners (a term which should encompass everyone). Humans have complex psyches, comprised of multiple strands of identity which reflect as different roles in the communities of which they are part – so why not design our system the same way? With multiple internal modes of operation, each capable of being reflected onto the outside world in the form of roles – as a mentor, a research assistant, maybe even as a friend. But in order to be able to work with a human for long enough to be able to have a chance of developing the sort of rich behaviours we associate with people, the system needs to be able to function in a practical and helpful role. Unfortunately, it is unlikely to get a free ride from many people (other than its developer!) – so it needs to be able to perform a useful role, and do so securely, respecting the privacy of its partner. Can we create a system which learns to be more human whilst helping people learn?