72 resultados para Fornecer
Resumo:
A Internet, conforme a conhecemos, foi projetada com base na pilha de protocolos TCP/IP, que foi desenvolvida nos anos 60 e 70 utilizando um paradigma centrado nos endereços individuais de cada máquina (denominado host-centric). Este paradigma foi extremamente bem-sucedido em interligar máquinas através de encaminhamento baseado no endereço IP. Estudos recentes demonstram que, parte significativa do tráfego atual da Internet centra-se na transferência de conteúdos, em vez das tradicionais aplicações de rede, conforme foi originalmente concebido. Surgiram então novos modelos de comunicação, entre eles, protocolos de rede ponto-a-ponto, onde cada máquina da rede pode efetuar distribuição de conteúdo (denominadas de redes peer-to-peer), para melhorar a distribuição e a troca de conteúdos na Internet. Por conseguinte, nos últimos anos o paradigma host-centric começou a ser posto em causa e apareceu uma nova abordagem de Redes Centradas na Informação (ICN - information-centric networking). Tendo em conta que a Internet, hoje em dia, basicamente é uma rede de transferência de conteúdos e informações, porque não centrar a sua evolução neste sentido, ao invés de comunicações host-to-host? O paradigma de Rede Centrada no Conteúdo (CCN - Content Centric Networking) simplifica a solução de determinados problemas de segurança relacionados com a arquitetura TCP/IP e é uma das principais propostas da nova abordagem de Redes Centradas na Informação. Um dos principais problemas do modelo TCP/IP é a proteção do conteúdo. Atualmente, para garantirmos a autenticidade e a integridade dos dados partilhados na rede, é necessário garantir a segurança do repositório e do caminho que os dados devem percorrer até ao seu destino final. No entanto, a contínua ineficácia perante os ataques de negação de serviço praticados na Internet, sugere a necessidade de que seja a própria infraestrutura da rede a fornecer mecanismos para os mitigar. Um dos principais pilares do paradigma de comunicação da CCN é focalizar-se no próprio conteúdo e não na sua localização física. Desde o seu aparecimento em 2009 e como consequência da evolução e adaptação a sua designação mudou atualmente para Redes de Conteúdos com Nome (NNC – Named Network Content). Nesta dissertação, efetuaremos um estudo de uma visão geral da arquitetura CCN, apresentando as suas principais características, quais os componentes que a compõem e como os seus mecanismos mitigam os tradicionais problemas de comunicação e de segurança. Serão efetuadas experiências com o CCNx, que é um protótipo composto por um conjunto de funcionalidades e ferramentas, que possibilitam a implementação deste paradigma. O objetivo é analisar criticamente algumas das propostas existentes, determinar oportunidades, desafios e perspectivas para investigação futura.
Resumo:
As the wireless cellular market reaches competitive levels never seen before, network operators need to focus on maintaining Quality of Service (QoS) a main priority if they wish to attract new subscribers while keeping existing customers satisfied. Speech Quality as perceived by the end user is one major example of a characteristic in constant need of maintenance and improvement. It is in this topic that this Master Thesis project fits in. Making use of an intrusive method of speech quality evaluation, as a means to further study and characterize the performance of speech codecs in second-generation (2G) and third-generation (3G) technologies. Trying to find further correlation between codecs with similar bit rates, along with the exploration of certain transmission parameters which may aid in the assessment of speech quality. Due to some limitations concerning the audio analyzer equipment that was to be employed, a different system for recording the test samples was sought out. Although the new designed system is not standard, after extensive testing and optimization of the system's parameters, final results were found reliable and satisfactory. Tests include a set of high and low bit rate codecs for both 2G and 3G, where values were compared and analysed, leading to the outcome that 3G speech codecs perform better, under the approximately same conditions, when compared with 2G. Reinforcing the idea that 3G is, with no doubt, the best choice if the costumer looks for the best possible listening speech quality. Regarding the transmission parameters chosen for the experiment, the Receiver Quality (RxQual) and Received Energy per Chip to the Power Density Ratio (Ec/N0), these were subject to speech quality correlation tests. Final results of RxQual were compared to those of prior studies from different researchers and, are considered to be of important relevance. Leading to the confirmation of RxQual as a reliable indicator of speech quality. As for Ec/N0, it is not possible to state it as a speech quality indicator however, it shows clear thresholds for which the MOS values decrease significantly. The studied transmission parameters show that they can be used not only for network management purposes but, at the same time, give an expected idea to the communications engineer (or technician) of the end-to-end speech quality consequences. With the conclusion of the work new ideas for future studies come to mind. Considering that the fourth-generation (4G) cellular technologies are now beginning to take an important place in the global market, as the first all-IP network structure, it seems of great relevance that 4G speech quality should be subject of evaluation. Comparing it to 3G, not only in narrowband but also adding wideband scenarios with the most recent standard objective method of speech quality assessment, POLQA. Also, new data found on Ec/N0 tests, justifies further research studies with the intention of validating the assumptions made in this work.
Resumo:
WWW is a huge, open, heterogeneous system, however its contents data is mainly human oriented. The Semantic Web needs to assure that data is readable and “understandable” to intelligent software agents, though the use of explicit and formal semantics. Ontologies constitute a privileged artifact for capturing the semantic of the WWW data. Temporal and spatial dimensions are transversal to the generality of knowledge domains and therefore are fundamental for the reasoning process of software agents. Representing temporal/spatial evolution of concepts and their relations in OWL (W3C standard for ontologies) it is not straightforward. Although proposed several strategies to tackle this problem but there is still no formal and standard approach. This work main goal consists of development of methods/tools to support the engineering of temporal and spatial aspects in intelligent systems through the use of OWL ontologies. An existing method for ontology engineering, Fonte was used as framework for the development of this work. As main contributions of this work Fonte was re-engineered in order to: i) support the spatial dimension; ii) work with OWL Ontologies; iii) and support the application of Ontology Design Patterns. Finally, the capabilities of the proposed approach were demonstrated by engineering time and space in a demo ontology about football.
Resumo:
Considerando como objeto de estudo o Relatório Médico em imagiologia, esta investigação encontra-se situada entre duas áreas do saber, a Ciência de Informação e as Ciências da Saúde (mais designadamente no âmbito da imagiologia). O Relatório Médico em imagiologia é um documento textual, físico e/ou digital, sigiloso, com caráter legal, que compreende informação médica relativa a um (ou vários) exame(s) médico(s) de um utente e que têm como principal objetivo fornecer dados/indicadores para o diagnóstico médico especializado. Com esta investigação, pretende-se posicionar o objeto de estudo, documentar a sua génese intelectual e material, refletir sobre todo o fluxo informacional do documento, revelar a importância das suas fases de produção e de normalização. Foram realizados levantamentos bibliográficos e abordagens reflexivas sobre a importância e produção do relatório médico, que depois foram cruzados com estudos de caso baseado em diferentes instituições, onde a experiência profissional do médico (produtor intelectual) e datilógrafo (produtor material) nos elucida sobre a temática apresentada e nos permitiu entender práticas e fluxos informacionais. No final do estudo analisamos o papel do datilógrafo como produtor material do relatório médico, salientando-se a sua consciência ética e profissional e sugerindo um conjunto de boas práticas no âmbito da elaboração e normalização de relatórios médicos em imagiologia.
Resumo:
Tendo em conta a popularidade que as comunicações Wi-Fi têm na atualidade em vários dispositivos como computadores portáteis, telemóveis ou tablets, sendo estes utilizados praticamente por qualquer pessoa, surgiu a ideia de utilizar esta tecnologia de baixo custo e isenta de licenciamento num cenário de comunicações marítimas. Neste contexto, esta permite fornecer o acesso à Internet em banda larga a grupos de embarcações, que atualmente recorrem a tecnologias de elevado custo (satélite) e/ou de banda estreita (rádios VHF). Com o acesso em banda larga, os proprietários poderão utilizar aplicações informáticas de interesse à atividade de negócio ou de lazer, até então só disponíveis junto à costa onde existe cobertura celular. Nesta tese pretende-se fazer um estudo teórico e prático sobre o alcance e respetivo desempenho de comunicações de banda larga em ambiente marítimo, utilizando parte da gama de frequências dos 5,8 GHz, isenta de licença, e a norma IEEE 802.11n. Para se utilizar equipamento produzido em massa a operar nessa gama, existem duas normas disponíveis, a IEEE 802.11a e a IEEE 802.11n. Optou-se pelo IEEE 802.11n pois os esquemas de codificação ao nível físico permitem débitos mais elevados e MIMO. Para a realização dos testes experimentais, foi necessário elaborar um protótipo de comunicação ponto a ponto, constituído por dois nós de comunicação. Um deles foi instalado numa embarcação de pesca em colaboração com a Associação Propeixe e o outro no Edifício Transparente, no Porto, em colaboração com a entidade gestora do edifício e a Associação Porto Digital. Tanto quanto se conhece é o primeiro teste de comunicações Wi-Fi realizado nestas condições a nível mundial. Os objetivos do trabalho foram atingidos. Foi possível estabelecer comunicações Wi-Fi na banda dos 5,8 GHz até cerca de 7 km com débito médio mínimo de 1 Mbit/s. O ambiente de testes desenvolvido e os resultados obtidos servirão de base para futuros trabalhos de investigação na área das comunicações marítimas.
Resumo:
Um dos principais objetivos da ciência é perceber a natureza, i.e., descobrir e explicar o funcionamento do mundo que nos rodeia. Para tal, os cientistas precisam de coligir dados e monitorar o meio ambiente. Em particular, considerando que cerca de 70% da Terra é coberta por água, a coleta de parâmetros de caracterização da água de grandes superfícies é uma prioridade. A monitorização das condições da água é feita principalmente através de bóias. No entanto, as bóias disponíveis no mercado não satisfazem as necessidades existentes. Esta é uma das principais razões que levaram o Laboratório de Sistemas Autónomos (LSA) do Instituto Superior de Engenharia do Porto a lançarem um projeto para o desenvolvimento de uma bóia reconfigurável e com dois modos de funcionamento: monitorização ambiental e baliza ativa de regata. O segundo modo é destinado a regatas de veleiros autónomos. O projeto começou há um ano com um projeto do European Project Project [1] (EPS), realizado por quatro estudantes internacionais, destinado à construção da estrutura da bóia e à selecção dos componentes mais adequados para o sistema de medição e controlo. A arquitetura que foi definida para este sistema é do tipo mestre-escravo e é composta por uma unidade de controlo mestre para a telemetria e configuração e uma unidade de controlo escrava para a medição e armazenamento de dados. O desenvolvimento do projeto continuou com dois estudantes belgas que trabalharam na comunicação e no armazenamento de dados. Este projeto, que prossegue com o desenvolvimento da medição e do armazenamento de dados do lado da unidade de controlo escrava, tem os seguintes objetivos: (i ) implementar o protocolo de comunicação na unidade de controlo escrava; (ii ) coligir e armazenar os dados dos sensores no cartão SD em tempo real; (iii ) fornecer dados em tempo útil; e (iv) recuperar dados do cartão SD em tempo diferido. As contribuições anteriores foram estudadas e foi feito um levantamento dos projetos congéneres existentes. O desenvolvimento do projeto atual começou com o protocolo de comunicação. Este protocolo, que foi projetado pelos alunos anteriores, foi um bom ponto de partida. No entanto, o protocolo foi atualizado e melhorado com novas funcionalidades. Esta última componente foi um trabalho conjunto com Laurens Allart, que esteve a trabalhar no subsistema de telemetria e de configuração durante este semestre. O protocolo foi implementado do lado da unidade de controlo escrava através de uma estrutura de múltiplas actividades paralelas (multithreaded). Esta estrutura recebe as mensagens da unidade mestre, executa as ações solicitadas e envia de volta o resultado. A bóia é um dispositivo reconfigurável multimodo que pode ser expandido com novos modos de operação no futuro. Infelizmente, sofre de algumas limitações: suporta uma carga máxima de 40 kg e tem uma área de implantação limitada pela distância máxima à estacão base.
Resumo:
O aumento da complexidade e das funcionalidades a fornecer pelos equipamentos de apoio à exploração de sistemas de redes de transporte criou um novo paradigma no qual vários intervenientes são chamados a fornecer módulos. Estes devem comunicar entre si de forma transparente, não devendo haver limitações colocadas pela tecnologia utilizada ou pelo facto de serem de fabricantes distintos. Este projeto de dissertação resulta de uma proposta da empresa EFACEC para a construção de um Simulador de um Sistema de Informação ao Público numa rede de transportes metro-ferroviária, que utilize como interface para comunicação com a plataforma de gestão EFARail a tecnologia de Web Services. Nesta dissertação faz-se um levantamento dos principais equipamentos utilizados em Sistemas de Informação ao Público e das funcionalidades disponibilizadas, assim como dastecnologias de Web Services que permitem responder aos requisitos e funcionalidades gerais do sistema. A aplicação desenvolvida permite a simulação duma rede de equipamentos visuais e sonoros de informação ao público que compõem uma linha metro-ferroviária. Desta forma é possível testar novos módulos sem necessidade de uma integração em ambiente real. Com isto pretende-se otimizar o processo de desenvolvimento, diminuindo os custos associados ao teste dos sub-sistemas que compõem a solução.
Resumo:
Atualmente, o parque edificado é responsável pelo consumo de 40% da energia total consumida em toda a União Europeia. As previsões apontam para o crescimento do sector da construção civil, nomeadamente a construção de edifícios, o que permite perspetivar um aumento do consumo de energia nesta área. Medidas importantes, como o lançamento da Diretiva 2010/31/EU do Parlamento Europeu e do Conselho de 19 de Maio de 2010 relativa ao desempenho energético dos edifícios, abrem caminho para a diminuição das necessidades energéticas e emissões de gases de efeito de estufa. Nela são apontados objetivos para aumentar a eficiência energética do parque edificado, tendo como objetivo que a partir de 2020 todos os novos edifícios sejam energeticamente eficientes e de balanço energético quase zero, com principal destaque para a compensação usando produção energética própria proveniente de fontes renováveis. Este novo requisito, denominado nearly zero energy building, apresenta-se como um novo incentivo no caminho para a sustentabilidade energética. As técnicas e tecnologias usadas na conceção dos edifícios terão um impacto positivo na análise de ciclo de vida, nomeadamente na minimização do impacto ambiental e na racionalização do consumo energético. Desta forma, pretendeu-se analisar a aplicabilidade do conceito nearly zero energy building a um grande edifício de serviços e o seu impacto em termos de ciclo de vida a 50 anos. Partindo da análise de alguns estudos sobre o consumo energético e sobre edifícios de balanço energético quase nulo já construídos em Portugal, desenvolveu-se uma análise de ciclo de vida para o caso de um edifício de serviços, da qual resultou um conjunto de propostas de otimização da sua eficiência energética e de captação de energias renováveis. As medidas apresentadas foram avaliadas com o auxílio de diferentes aplicações como DIALux, IES VE e o PVsyst, com o objetivo de verificar o seu impacto através da comparação com estado inicial de consumo energético do edifício. Nas condições iniciais, o resultado da análise de ciclo de vida do edifício a 50 anos no que respeita ao consumo energético e respetivas emissões de CO2 na fase de operação foi de 6 MWh/m2 e 1,62 t/m2, respetivamente. Com aplicação de medidas propostas de otimização, o consumo e as respetivas emissões de CO2 foram reduzidas para 5,2 MWh/m2 e 1,37 t/m2 respetivamente. Embora se tenha conseguido reduzir ao consumo com as medidas propostas de otimização de energia, chegou-se à conclusão que o sistema fotovoltaico dimensionado para fornecer energia ao edifício não consegue satisfazer as necessidades energéticas do edifício no final dos 50 anos.
Resumo:
A dissertação apresentada tem como objetivo primordial testar e validar as potencialidades da termografia na obtenção de dados para reduzir as perdas ou ganhos térmicos em equipamentos e processos, tornando-os mais eficientes. Realizada em estágio curricular, em ambiente empresarial, na empresa Ecoinside, tem como caso de estudo principal uma indústria de tratamento de alumínios. O processo e os equipamentos escolhidos para o estudo foram estudados e compreendidos. Nas imperfeições detetadas foram apontadas medidas corretivas simples e de fácil execução. Mostrou-se, ainda, algumas das poupanças energéticas concedidas por essas retificações. As capacidades da termografia foram testadas noutros ambientes, que não o industrial, pois um dos objectivos era perceber se a câmara termográfica é uma mais-valia a fornecer dados na realização de uma qualquer auditoria energética, confirmando-se que sim. Dá-se, ainda, a conhecer os princípios por detrás da termografia e um pouco da sua história. Ainda no passado, percebem-se as razões do surgimento das auditorias energéticas antes da presente preocupação ambiental e da eficiência energética.
Resumo:
Assistimos à queda de um serviço, que em muitos países, figurava como um serviço de um modelo social europeu, passando de um monopólio para um sistema de mercado liberalizado e concorrencial: o mercado energético. (EURO COOP, 2014) Em maio de 2014, o mercado livre chegou a ultrapassar os 2,8 milhões de consumidores, tendo um crescimento face a maio de 2013 de 64%, com uma taxa média mensal de 4,2%. (Entidade Reguladora dos Energéticos - ERSE, 2009). Perante a crescente adesão de consumidores para o mercado liberalizado, e suas possíveis futuras mudanças, e tendo em conta com os potenciais clientes a aderirem, foi proposto então construir a plataforma MelhorTarifa.pt . Apesar da já existência de simuladores, estes demonstram-se a ser pouco intuitivos e a não demonstrar toda a informação que o utilizador pretende bem como não existir uma imagem de marca associada a um apoio à mudança de tarifário, tendo sido estas umas das razões que levaram ao desenvolvimento do MelhorTarifa.pt. O âmbito principal deste trabalho, é fornecer uma plataforma informática grátis, imparcial, com o acréscimo até à data, em relação a outros simuladores, da disponibilização de faturas detalhadas sobre o produto que o cliente pretende adquirir, serviços de consultoria, tudo isto de forma rápida e de simples acesso. Com este trabalho pretende-se também definir o atual estado de arte de simuladores idênticos em Portugal e no estrangeiro, pretendendo-se também dar conhecimento do trabalho desenvolvido para esta dissertação, denominado como MelhorTarifa.pt.
Resumo:
As alterações demográficas verificadas nos últimos anos, com um peso cada vez maior da população idosa, a par da alteração do tecido social provocada pela ausência do domicílio da mulher, cuidadora tradicional, levaram à necessidade de encontrar respostas para apoio de pessoas em situação de dependência. Reabilitar e reinserir, a par de políticas de envelhecimento ativo, são alguns dos desafios no momento, a nível global. A Rede Nacional de Cuidados Continuados Integrados (RNCCI), criada pelo Decreto-Lei n.º 101/2006, de 6 de junho, tem por missão prestar os cuidados adequados, de saúde e apoio social, a todas as pessoas que, independentemente da idade, se encontrem em situação de dependência. A Prestação de Cuidados na RNCCI significa fornecer os melhores cuidados possíveis disponíveis a um indivíduo e ou família/cuidador com uma necessidade, num contexto específico. O âmbito de intervenção na RNCCI fundamenta-se no princípio dos 3 R’s – Reabilitação, Readaptação e Reinserção. Tradicionalmente, verifica-se uma boa preparação dos profissionais de saúde que acompanham o paciente mas tem-se verificado que estes cuidados se devem prolongar para além dos apenas prestados em ambiente hospitalar e/ou familiar. De facto, constata-se a necessidade de este tipo de cuidados ser mais abrangente, podendo vir a envolver outras pessoas (familiares, amigos, ou outros cuidadores), verificando-se, porém, que na maioria dos casos não dispõem de conhecimentos ou técnicas necessárias para o acompanhamento dos mesmos pelo facto de não terem uma formação efetiva relacionada com este problema. Neste sentido, e com o auxílio das tecnologias de informação emergentes e cada vez mais poderosas é atualmente possível desenvolver soluções de apoio aos cuidadores deste tipo de cuidados. Pretendemos com o presente estudo investigar essa possibilidade, contribuindo para soluções capazes de proporcionar de forma simples e intuitiva um conhecimento adicional em prol de um apoio mais eficaz nestas situações. Para o efeito, foi desenvolvido um protótipo com essa finalidade que foi posto em prática e para o qual se apresentam os resultados obtidos.
Resumo:
Este trabalho tem como objectivo abordar um tema que permanece em debate e que continua a ser matéria para investigação. Neste primeiro artigo a nossa preocupação principal vai no sentido de enquadrar, teoricamente, os problemas que sugeriram o seu título: ”Conflitos entre accionistas e gestores”. A abordagem teórica deste tema é muito recente porque apenas na década de setenta foi dada a devida atenção a esta problemática nos Estados Unidos, quando a economia começou a funcionar menos bem, sendo apontada como causa imediata da ineficácia das grandes empresas americanas a forte dispersão do capital. No fim do século passado, o surgimento e depois o desenvolvimento de grandes empresas caracterizadas por uma dispersão acentuada do capital nos Estados Unidos, parece ter conduzido os accionistas a perderam o controlo do seu negócio em benefício de gestores profissionais e este facto tem merecido muitos comentários entre os teóricos da empresa. Um grande número entre eles acreditaram mesmo ter havido uma espécie de perversão do sistema capitalista original, inteiramente construído em torno do empresário que detinha ao mesmo tempo a propriedade dos factores produtivos e todo o poder de decisão na empresa. Esta posição não tem consistência teórica nem empírica, porque não consegue explicar o importante desenvolvimento das empresas onde a propriedade e a decisão estão nitidamente separadas, e também não explica a contradição que existe, devido à perenidade das ”performances” óptimas, neste tipo de empresas. Esta situação paradoxal permaneceu inexplicada até à década de sessenta, época em que surge uma nova corrente de pensamento económico (a teoria dos direitos de propriedade) que se propõe fornecer uma explicação satisfatória da lógica do funcionamento da empresa. Uma das mensagens desta teoria é que a razão de ser da empresa capitalista moderna não pode ser entendida sem uma pré-explicação das características do sistema jurídico que lhe está subjacente ou seja, o regime de propriedade privada. Os prolongamentos da teoria dos direitos de propriedade na teoria da agência apresentam uma nova concepção de empresa, sendo esta caracterizada pela separação entre propriedade e decisão. Esta corrente faz parte dum corpo teórico que tem sido designado por ”TEORIA MODERNA DA EMPRESA”, onde os objectivos da empresa, considerada como uma entidade em si, não são tratados prioritariamente, outrossim é dada particular ênfase à análise dos objectivos pessoais dos indivíduos que são parte integrante da vida da organização.
Resumo:
Avaliação da variação da temperatura corporal, e a monitorização da mesma é bastante importante na prática clínica sendo, por vezes, a base de muitas decisões clínicas. Atualmente, os termómetros digitais, em particular os timpânicos são amplamente utilizados, em contexto hospitalar e domiciliário. Muitos estudos têm sido efetuados para determinar a validade das medições obtidas através de termómetros timpânicos. Os defensores destes termómetros afirmam que, se forem utilizados de forma adequada e periodicamente calibrados, a avaliação da temperatura corporal com este tipo de termómetros é eficaz, cómoda, rápida, pouco invasiva emais higiénica reduzindo o número de infeções cruzadas (FarnellMaxwell &Tan, Rhodes& Philips, 2005). A Metrologia como a ciência das medições e suas aplicações ((VIM1: 2.2) (INSTITUTO PORTUGUÊS DA QUALIDADE, 2012)), abrange todos os aspetos teóricos e práticos que asseguram a exatidão e precisão exigida num processo, procurando garantir a qualidade de produtos e serviços através da calibração de instrumentos de medição e da realização de ensaios, sendo a base fundamental para a competitividade das empresas. Só após o ano 1990, com a publicação dos resultados doHarvardMedical Practice Study (T A BRENNAN, 2004), sobre adventos adversos na área da saúde, começaram a surgir preocupação com o risco do uso de equipamentos e instrumentos sem a adequada avaliação metrológica. Neste estudo concluiu-se que 3,7 % dos pacientes hospitalizados sofriam eventos adversos devido ao uso inadequado de equipamento médico, sendo que 13,6% destes eram mortais. Pegando nesta realidade e sabendo que o não controlo de Equipamento de Monitorização e Medição é uma das causas de obtenção de 36%de não conformidades - 7.6 (NP EN ISO 9001:2008), em Auditorias da Qualidade em Serviços de Saúde (Luís Marinho – Centro Hospitalar São João), fez todo o sentido o estudo e trabalho desenvolvido. Foi efetuado um estudo, no que se refere a normalização em vigor e verificou-se que a nível metrológico muito trabalho terá que ser realizado no serviço nacional de saúde por forma este fornecer o suporte material fiável ao sistema de medições, essencial aos mais diversos sectores da saúde. Sabendo-se que os ensaios/calibrações são necessários e não são negligenciáveis na estrutura de custos das instituições de saúde, e por isso são vistas como mais uma fonte de despesas, é intenção com a realização deste trabalho, contribuir em parte para superação deste tema. Este trabalho passou pela execução/realização de um procedimento de calibração para termómetros timpânicos, tendo a necessidade de desenvolver/projetar um corpo negro. A amostra em estudo é constituída por cinco termómetros timpânicos hospitalares em uso dos diferentes serviços do CHSJ2, seleccionados completamente ao acaso. Um termómetro clínico no mínimo terá que ser calibrado a temperatura 35 ºC e 42 ºC. A calibração deverá ser realizada anualmente e por entidade acreditada. O erro máximo admissível é de ± 0,2 ºC (nas condições ambientais de funcionamento). Sem a confirmação metrológica, não é possível garantir a qualidade do produto ou serviço. A Metrologia na área da saúde desperta a exigência por produtos e serviços de qualidade. Esta tencionará ser encarada como um pilar de sustentabilidade para a qualidade na saúde, sendo absolutamente necessária a implementação de novos procedimentos e atitudes.
Resumo:
Os sistemas de apoio à decisão clinica têm-se revelado essenciais no dia-a-dia da população, nomeadamente dos profissionais e dos pacientes. Estes sistemas podem ser aplicados com diferentes objetivos: como sistemas de alerta; de prevenção de doenças; sistemas para dosagem de medicação e prescrição; entre outras. Atualmente é notório o aumento de interesse por parte da população em entender e em possuir um papel ativo nas decisões médicas. Para conseguirem fazê-lo necessitam de procurar informação. O meio mais utilizado para obter essa informação é a internet, onde a informação se encontra em grande quantidade e muito dispersa. Para além da quantidade é imprescindível encontrar informação credível, para que não haja indução da pessoa em erro. Para ajudar a solucionar estes problemas surgiram os sistemas de recomendação na saúde. Estes sistemas foram idealizados para fornecer informações às quais os utilizadores podem recorrer para tomar decisões conscientes e seguras sobre a sua saúde. Também os sistemas de alerta se têm revelado importantes na área da saúde. Estes sistemas podem ser usados em diferentes contextos e sobre diferentes assuntos, como por exemplo, a alteração do estado clínico de um paciente monitorizado, em tempo real, ou em interações medicamentosas. As interações medicamentosas podem advir da automedicação do utente ou da larga quantidade de medicação que, a partir de determinada idade, os utentes ingerem. Pode ter como causa medicação que administrem regularmente, ou até mesmo diariamente, ou doenças/estados que o utente possua que, em simultâneo com determinada medicação pode causar reações adversas. Neste trabalho foi desenvolvido um protótipo de uma farmácia online (FoAM) que fornece, ao utilizador, alertas quando há possibilidade de interações. As causas de interações consideradas foram os medicamentos que o utilizador consuma e/ou doenças/estados que possua. O objetivo é alertar para o caso das causas que o utilizador possui interagirem com o(s) medicamento(s) que este deseja adquirir. Para alcançar esse objetivo foi necessário selecionar os medicamentos a disponibilizar assim como as suas interações. Essa seleção foi baseada no prontuário terapêutico 2013 disponibilizado pelo INFARMED. Depois de recolhida e analisada a informação, foi possível compreender que informações clínicas o sistema necessita para que consiga identificar os medicamentos que não são aconselháveis adquirir. Para isso, é necessário que o utilizador forneça essas informações clínicas pessoais, necessidade que vai de encontro à posição defendida por diversos autores que apontam o uso de registos eletrónicos de saúde muito benéfico para conseguir alertas mais personalizados suprindo assim as necessidades do utilizador. É também preponderante que o utilizador perceba o porquê de determinado medicamento não ser aconselhável, por isso, ao ser emitido o alerta é também apresentada a justificação do mesmo, ou seja, é disponibilizado ao utilizador qual a causa que indicou no formulário responsável pela interação.
Resumo:
All over the world, the liberalization of electricity markets, which follows different paradigms, has created new challenges for those involved in this sector. In order to respond to these challenges, electric power systems suffered a significant restructuring in its mode of operation and planning. This restructuring resulted in a considerable increase of the electric sector competitiveness. Particularly, the Ancillary Services (AS) market has been target of constant renovations in its operation mode as it is a targeted market for the trading of services, which have as main objective to ensure the operation of electric power systems with appropriate levels of stability, safety, quality, equity and competitiveness. In this way, with the increasing penetration of distributed energy resources including distributed generation, demand response, storage units and electric vehicles, it is essential to develop new smarter and hierarchical methods of operation of electric power systems. As these resources are mostly connected to the distribution network, it is important to consider the introduction of this kind of resources in AS delivery in order to achieve greater reliability and cost efficiency of electrical power systems operation. The main contribution of this work is the design and development of mechanisms and methodologies of AS market and for energy and AS joint market, considering different management entities of transmission and distribution networks. Several models developed in this work consider the most common AS in the liberalized market environment: Regulation Down; Regulation Up; Spinning Reserve and Non-Spinning Reserve. The presented models consider different rules and ways of operation, such as the division of market by network areas, which allows the congestion management of interconnections between areas; or the ancillary service cascading process, which allows the replacement of AS of superior quality by lower quality of AS, ensuring a better economic performance of the market. A major contribution of this work is the development an innovative methodology of market clearing process to be used in the energy and AS joint market, able to ensure viable and feasible solutions in markets, where there are technical constraints in the transmission network involving its division into areas or regions. The proposed method is based on the determination of Bialek topological factors and considers the contribution of the dispatch for all services of increase of generation (energy, Regulation Up, Spinning and Non-Spinning reserves) in network congestion. The use of Bialek factors in each iteration of the proposed methodology allows limiting the bids in the market while ensuring that the solution is feasible in any context of system operation. Another important contribution of this work is the model of the contribution of distributed energy resources in the ancillary services. In this way, a Virtual Power Player (VPP) is considered in order to aggregate, manage and interact with distributed energy resources. The VPP manages all the agents aggregated, being able to supply AS to the system operator, with the main purpose of participation in electricity market. In order to ensure their participation in the AS, the VPP should have a set of contracts with the agents that include a set of diversified and adapted rules to each kind of distributed resource. All methodologies developed and implemented in this work have been integrated into the MASCEM simulator, which is a simulator based on a multi-agent system that allows to study complex operation of electricity markets. In this way, the developed methodologies allow the simulator to cover more operation contexts of the present and future of the electricity market. In this way, this dissertation offers a huge contribution to the AS market simulation, based on models and mechanisms currently used in several real markets, as well as the introduction of innovative methodologies of market clearing process on the energy and AS joint market. This dissertation presents five case studies; each one consists of multiple scenarios. The first case study illustrates the application of AS market simulation considering several bids of market players. The energy and ancillary services joint market simulation is exposed in the second case study. In the third case study it is developed a comparison between the simulation of the joint market methodology, in which the player bids to the ancillary services is considered by network areas and a reference methodology. The fourth case study presents the simulation of joint market methodology based on Bialek topological distribution factors applied to transmission network with 7 buses managed by a TSO. The last case study presents a joint market model simulation which considers the aggregation of small players to a VPP, as well as complex contracts related to these entities. The case study comprises a distribution network with 33 buses managed by VPP, which comprises several kinds of distributed resources, such as photovoltaic, CHP, fuel cells, wind turbines, biomass, small hydro, municipal solid waste, demand response, and storage units.