289 resultados para Estante 22 Número 009


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Cancro da mama é uma doença cuja incidência tem vindo a aumentar de ano para ano e além disso é responsável por um grande número de mortes em todo mundo. De modo a combater esta doença têm sido propostos e utilizados biomarcadores tumorais que permitem o diagnóstico precoce, o acompanhamento do tratamento e/ou a orientação do tipo tratamento a adotar. Atualmente, os biomarcadores circulantes no sangue periférico recomendados pela Associação Americana de Oncologia Clinica (ASCO) para monitorizar os pacientes durante o tratamento são o cancer antigen 15-3 (CA 15-3), o cancer antigen 27.29 (CA 27.29) e o cancer embryobic antigen (CEA). Neste trabalho foi desenvolvido um sensor eletroquímico (voltamétrico) para monitorizar o cancro da mama através da análise do biomarcador CA 15-3. Inicialmente realizou-se o estudo da adsorção da proteína na superfície do elétrodo para compreender o comportamento do sensor para diferentes concentrações. De seguida, estudaram-se três polímeros (poliaminofenol, polifenol e polifenilenodiamina) e selecionou-se o poliaminofenol como o polímero a utilizar, pois possuía a melhor percentagem de alteração de sinal. Após a seleção do polímero, este foi depositado na superfície do elétrodo por eletropolimerização, formando um filme polimérico molecularmente impresso (MIP) à volta da proteína (molde). Posteriormente, foram analisados cinco solventes (água, mistura de dodecil sulfato de sódio e ácido acético, ácido oxálico, guanidina e proteinase K) e o ácido oxálico revelou ser mais eficaz na extração da proteína. Por último, procedeu-se à caraterização do sensor e analisou-se a resposta analítica para diferentes concentrações de CA 15-3 revelando diferenças claras entre o NIP (polímero não impresso) e o MIP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tecnologia está em constante evolução e os benefícios, em diversas áreas, que ela nos traz são imensos. Uma das áreas que tem vindo a usufruir desta evolução é a medicina. Os avanços na tecnologia médica têm permitido aos médicos diagnosticar e tratar melhor os seus pacientes. O seu objetivo não é substituir o médico mas sim aconselhá-los e ajudá-los a tomar a melhor decisão face ao caso clínico que possam ter em mãos. Os sistemas de informação estão já tão “entrelaçados” com as práticas médicas que a ideia de uma instituição de prestação de cuidados médicos não os possuir é impensável. Isto porque a informação que estes sistemas processam diariamente é imensa e variadíssima (indo desde relatórios clínicos, a exames efetuados entre outros) para cada utente. As doenças orais fazem parte do grupo de patologias que afetam o maior número de pessoas no mundo. As ações preventivas para estes sintomas devem fazer parte da higiene diária dos indivíduos logo desde os primeiros anos de vida. Assim a aplicação apresentada nesta tese teve como objetivo a sensibilização para uma prática de higiene oral cuidada e constante. Teve também como objetivo a implementação de funcionalidades para gestão de dados dos pacientes da clínica, nomeadamente para o histórico clínico, ficando este armazenado numa anamnese. Para a implementação do presente projeto procedeu-se a um estudo prévio do estado da arte e ao levantamento de requisitos. Estes foram definidos através de reuniões de trabalho onde se analisou as necessidades da clínica com o objetivo de encontrar as soluções que melhor se enquadravam a cada caso. Para garantir que as metas propostas foram alcançadas, foram realizados inquéritos verificando assim o sucesso da aplicação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As centrais termoelétricas convencionais convertem apenas parte do combustível consumido na produção de energia elétrica, sendo que outra parte resulta em perdas sob a forma de calor. Neste sentido, surgiram as unidades de cogeração, ou Combined Heat and Power (CHP), que permitem reaproveitar a energia dissipada sob a forma de energia térmica e disponibilizá-la, em conjunto com a energia elétrica gerada, para consumo doméstico ou industrial, tornando-as mais eficientes que as unidades convencionais Os custos de produção de energia elétrica e de calor das unidades CHP são representados por uma função não-linear e apresentam uma região de operação admissível que pode ser convexa ou não-convexa, dependendo das caraterísticas de cada unidade. Por estas razões, a modelação de unidades CHP no âmbito do escalonamento de geradores elétricos (na literatura inglesa Unit Commitment Problem (UCP)) tem especial relevância para as empresas que possuem, também, este tipo de unidades. Estas empresas têm como objetivo definir, entre as unidades CHP e as unidades que apenas geram energia elétrica ou calor, quais devem ser ligadas e os respetivos níveis de produção para satisfazer a procura de energia elétrica e de calor a um custo mínimo. Neste documento são propostos dois modelos de programação inteira mista para o UCP com inclusão de unidades de cogeração: um modelo não-linear que inclui a função real de custo de produção das unidades CHP e um modelo que propõe uma linearização da referida função baseada na combinação convexa de um número pré-definido de pontos extremos. Em ambos os modelos a região de operação admissível não-convexa é modelada através da divisão desta àrea em duas àreas convexas distintas. Testes computacionais efetuados com ambos os modelos para várias instâncias permitiram verificar a eficiência do modelo linear proposto. Este modelo permitiu obter as soluções ótimas do modelo não-linear com tempos computationais significativamente menores. Para além disso, ambos os modelos foram testados com e sem a inclusão de restrições de tomada e deslastre de carga, permitindo concluir que este tipo de restrições aumenta a complexidade do problema sendo que o tempo computacional exigido para a resolução do mesmo cresce significativamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo o estudo da segurança dos peões, com incidência na questão da circulação e travessias pedonais dentro de zonas urbanas. Pretendeu-se identificar as vias mais problemáticas, com maior incidência de atropelamentos dos peões, de modo a estudar as causas. Após esse estudo, e o estudo de soluções para o problema, pode-se garantir ao peão uma melhor qualidade na mobilidade dentro dos meios urbanos. Falando na segurança de peões, é impreterível falar da sinistralidade. Foi abordado o tema e executado um estudo para análise do posicionamento de Portugal na União Europeia. Fez-se um estudo entre os anos 2010 a 2014, constatando-se que Portugal teve uma melhoria de 2010 a 2013. Já em 2014 teve um ligeiro decréscimo no melhoramento dos resultados. Em relação ao número de peões mortos por milhão de habitantes, a análise fez-se no período de tempo compreendido de 2010 a 2014, e a nível europeu pôde-se verificar, que de 2010 a 2012 Portugal teve uma melhoria significativa. Já 2013 foi um ano com maus resultados e obteve-se um decréscimo na melhoria que se havia conseguido, mas em 2014 conseguiu-se uma boa recuperação ficando nesse ano na décima sexta posição. Foi também analisada a França, para se fazer uma comparação com Portugal, e concluímos que França tem os melhores resultados a nível da sinistralidade, sendo um País com melhores condições de transporte, melhorando assim o nível de sinistralidade. Foram referidos também alguns temas publicados, que são uma forma de dar a conhecer as consequências de alguns maus hábitos da população, assim como algumas doenças normais da sociedade em geral e como se refletem na condução. Para se melhorar a segurança dos peões, existem as técnicas de acalmia, tendo sido feita uma abordagem ao tema. No caso de estudo Cidade do Porto, foram analisados os resultados em relação aos anos de 2013, 2014 e os três primeiros meses de 2015. Os resultados obtidos e suas análises, apontam para a necessidade de uma maior formação quer do peão, quer do condutor, uma vez que grande parte dos sinistros são mortes por atravessamento fora do local de passagem ou excesso de velocidade dos condutores. Assim será necessário intervir também a nível da acalmia. Existem ainda muitas áreas a melhorar, para a obtenção de resultados brilhantes no nosso país, mas se todos caminharmos na mesma direção rapidamente chegaremos ao topo dos objetivos pretendidos que é salvar todos os dias mais vidas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O sector do turismo é uma área francamente em crescimento em Portugal e que tem desenvolvido a sua divulgação e estratégia de marketing. Contudo, apenas se prende com indicadores de desempenho e de oferta instalada (número de quartos, hotéis, voos, estadias), deixando os indicadores estatísticos em segundo plano. De acordo com o “ Travel & tourism Competitiveness Report 2013”, do World Economic Forum, classifica Portugal em 72º lugar no que respeita à qualidade e cobertura da informação estatística, disponível para o sector do Turismo. Refira-se que Espanha ocupa o 3º lugar. Uma estratégia de mercado, sem base analítica, que sustente um quadro de orientações específico e objetivo, com relevante conhecimento dos mercados alvo, dificilmente é compreensível ou até mesmo materializável. A implementação de uma estrutura de Business Intelligence que permita a realização de um levantamento e tratamento de dados que possibilite relacionar e sustentar os resultados obtidos no sector do turismo revela-se fundamental e crucial, para que sejam criadas estratégias de mercado. Essas estratégias são realizadas a partir da informação dos turistas que nos visitam, e dos potenciais turistas, para que possam ser cativados no futuro. A análise das características e dos padrões comportamentais dos turistas permite definir perfis distintos e assim detetar as tendências de mercado, de forma a promover a oferta dos produtos e serviços mais adequados. O conhecimento obtido permite, por um lado criar e disponibilizar os produtos mais atrativos para oferecer aos turistas e por outro informá-los, de uma forma direcionada, da existência desses produtos. Assim, a associação de uma recomendação personalizada que, com base no conhecimento de perfis do turista proceda ao aconselhamento dos melhores produtos, revela-se como uma ferramenta essencial na captação e expansão de mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os Sistemas de Apoio à Tomada de Decisão em Grupo (SADG) surgiram com o objetivo de apoiar um conjunto de decisores no processo de tomada de decisão. Uma das abordagens mais comuns na literatura para a implementação dos SADG é a utilização de Sistemas Multi-Agente (SMA). Os SMA permitem refletir com maior transparência o contexto real, tanto na representação que cada agente faz do decisor que representa como no formato de comunicação utilizado. Com o crescimento das organizações, atualmente vive-se uma viragem no conceito de tomada de decisão. Cada vez mais, devido a questões como: o estilo de vida, os mercados globais e o tipo de tecnologias disponíveis, faz sentido falar de decisão ubíqua. Isto significa que o decisor deverá poder utilizar o sistema a partir de qualquer local, a qualquer altura e através dos mais variados tipos de dispositivos eletrónicos tais como tablets, smartphones, etc. Neste trabalho é proposto um novo modelo de argumentação, adaptado ao contexto da tomada de decisão ubíqua para ser utilizado por um SMA na resolução de problemas multi-critério. É assumido que cada agente poderá utilizar um estilo de comportamento que afeta o modo como esse agente interage com outros agentes em situações de conflito. Sendo assim, pretende-se estudar o impacto da utilização de estilos de comportamento ao longo do processo da tomada de decisão e perceber se os agentes modelados com estilos de comportamento conseguem atingir o consenso mais facilmente quando comparados com agentes que não apresentam nenhum estilo de comportamento. Pretende-se ainda estudar se o número de argumentos trocados entre os agentes é proporcional ao nível de consenso final após o processo de tomada de decisão. De forma a poder estudar as hipóteses de investigação desenvolveu-se um protótipo de um SADG, utilizando um SMA. Desenvolveu-se ainda uma framework de argumentação que foi adaptada ao protótipo desenvolvido. Os resultados obtidos permitiram validar as hipóteses definidas neste trabalho tendo-se concluído que os agentes modelados com estilos de comportamento conseguem na maioria das vezes atingir um consenso mais facilmente comparado com agentes que não apresentam nenhum estilo de comportamento e que o número de argumentos trocados entre os agentes durante o processo de tomada de decisão não é proporcional ao nível de consenso final.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A fabricação de moldes é um pilar da indústria metalomecânica nacional. A qualidade patenteada pelos moldes de fabrico nacional é reconhecida mundialmente. A fabricação de um molde é sempre um novo desafio, dadas as especificidades de cada peça e à complexidade geométrica que normalmente apresentam. Este trabalho teve por principal objetivo proceder ao projeto, fabricação e ajuste de um molde para uma peça plástica complexa, destinada à indústria automóvel, a qual, pela sua complexidade geométrica, elevada relação de área versus espessura e grande número de reforços bastante delgados, exige cuidados especiais no momento de se tomarem decisões quanto às melhores metodologias a adotar na sua fabricação, com vista a garantir a qualidade exigida pelo cliente final. O projeto foi desenvolvido e levado a cabo, permitindo constatar que algumas das opções tomadas na fase do projeto foram as mais adequadas, exigindo pouco trabalho de afinação no final e permitindo a extração de peças com elevada repetibilidade de características e a qualidade requerida pelo cliente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para conseguir responder às exigências atuais dos mercados, as indústrias necessitam de ser flexíveis, ou seja, é necessário terem a capacidade de adaptar o seu funcionamento e os seus produtos às alterações que se sucedem. Como forma de responder a este facto, o funcionamento da empresa assenta numa produção flexível para conseguir que os seus produtos que abranjam diferente o maior número possível de clientes. No entanto esta metodologia tem apresentado alguns problemas na sua implementação, por isso com o objetivo de obter uma produção mais eficaz e eficiente, a empresa tem canalizado esforços para a melhoria contínua das linhas de montagem. O trabalho desenvolvido na FUTE está enquadrado com a melhoria contínua e visa o processo de abastecimento dos diversos materiais necessários para a produção, característica fundamental para que as linhas possam produzir de forma contínua. Este estudo iniciou-se por analisar o método de abastecimento e identificar os seus problemas e causas, para que posteriormente com o auxílio dos conhecimentos adq uiridos, fosse possível conceber soluções. Os resultados apresentados neste trabalho demonstram que as melhorias implementadas a nível de organização de armazéns, métodos de trabalho e meios de transporte de materiais permitem diminuir o tempo e os recursos necessários durante o processo de abastecimento, além de melhorar condições de trabalho dos operários.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durante os últimos anos tem-se assistido a um crescimento exponencial da utilização dos dispositivos móveis. Atualmente, a presença destes dispositivos está tão consolidada na sociedade em que nos encontramos que é praticamente impossível estar num espaço público sem encontrar uma pessoa a utilizar um exemplar deste tipo de dispositivos, na forma de um Smartphone ou um Tablet. Nesse sentido, um grande número de organizações de desenvolvimento de software tem vindo a apostar na criação de aplicações para servir este mercado com enorme potencial. De forma a iniciar o desenvolvimento aplicacional nesta área, cabe às organizações escolherem a metodologia de desenvolvimento que mais se adapta às suas necessidades e ao contexto que desejam explorar. Por vezes, a abordagem adotada acaba por ser tornar inadaptada a longo prazo, podendo as aplicações começar a apresentar níveis de desempenho e problemas comportamentais indesejados, de acordo com as alterações realizadas e as necessidades evidenciadas no seu processo de evolução, sendo necessário explorar outras alternativas metodológicas. No contexto apresentado surge a temática da presente dissertação, que se propõe à criação de um plano de migração tecnológica genérico direcionado a um conjunto aplicações móveis em estudo, desenvolvidas através de uma metodologia híbrida, adaptada ao desenvolvimento de aplicações compatíveis com as diversas plataformas móveis. O plano devia então ser construído com o intuito de efetuar a migração das aplicações para uma metodologia nativa, adaptada ao desenvolvimento de aplicações móveis específicas a uma determinada plataforma móvel, que no presente caso seria sob a plataforma Android. No decorrer do trabalho realizado foram desenvolvidos mecanismos e componentes genéricos que permitiram implementar um módulo de migração responsável por construir um projeto nativo base de Android através de um projeto híbrido, construído segundo as suas tecnologias específicas. Finalizada a implementação, foram realizados testes comparativos entre a aplicação alvo de migração e o protótipo nativo conseguido e foi apresentada uma série de resultados que permitiram concluir a adequação da metodologia nativa para ultrapassar a problemática evidenciada. Além disso, foi também possível concluir que o sistema de migração genérico resultante do trabalho desta dissertação permite reduzir significativamente o tempo de desenvolvimento necessário em migrações de outras aplicações que se enquadrem na mesma problemática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde tempos remotos que homens faziam a vigilância de bens e mercadorias e mais recentemente também de pessoas com o intuito de dissuadir roubos, atos de vandalismo e de violência. Nos últimos anos, com a evolução das novas tecnologias verificou-se a sua adoção para auxílio da vigilância. Os atos de terrorismo que têm acontecido um pouco por todo o mundo trouxeram um clima de insegurança à população mundial. Este fenómeno, juntamente com o elevado número de roubos e atos de violência levou à expansão de utilização dos meios de videovigilância de forma a dissuadir estes tipos de crime podendo mesmo, nalguns casos servir como prova para punir os autores dos mesmos. Em Portugal tem-se verificado uma escalada de crimes nas zonas mais rurais não só de bens como as alfaias agrícolas mas também de frutos e mesmo de animais. Estes crimes predominam em locais rurais, relativamente distantes das povoações e em locais onde não existem (ou são praticamente inexistentes) infraestruturas necessárias para implementar meios de videovigilância como a falta de rede elétrica e internet o que torna quase inviável a existência de sistemas de videovigilância nesses locais. Dotar esses locais das infra estruturas necessárias poderia tornar-se demasiado dispendioso e os vigilantes humanos poderiam correr riscos no meio dos montes ou noutros locais remotos para além dos seus elevados custos. Para além do problema dos roubos, existe um outro flagelo relacionado com os incêndios na floresta portuguesa, que todos os anos é dizimada pelo fogo devido a incêndios que surgem na sua maioria causados pelo homem sendo uma parte significativa os de origem criminosa. Para dar resposta a estes problemas e no sentido de vigiar e dissuadir estes tipos de crimes, iniciamos um estudo que pretende propor um protótipo de um sistema de videovigilância para locais remotos (SVR - Sistema de Videovigilância Remota) de baixo custo de forma a diminuir o número de crimes e assim minimizar os prejuízos económico e sociais causados pelos mesmos. Pretendemos estudar o problema e analisar tecnologias com potencial para propor uma solução que possa auxiliar a vigilância nesse tipo de locais com o pressuposto de poder vir a contribuir para a diminuição deste tipo de crimes devido ao seu efeito dissuasor pelo facto de se poder divulgar que estes locais já têm uma solução de vigilância oculta. A solução proposta contempla um sistema de videovigilância com uma camara construída com base num Raspberry Pi onde o vídeo é transmitido em streaming via Web através de comunicações móveis. A alimentação do sistema nestes espaços sem energia elétrica é feita através de um painel fotovoltaico. É proporcionado ao utilizador uma interface para visualizar o vídeo transmitido e um mecanismo de notificações por email. É ainda possível a visualização de imagens gravadas num cartão de memória relativas a ocorrências de deteção de movimentos. Foram realizados inúmeros testes ao protótipo SVR sendo os resultados obtidos aqui descritos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O mercado de smartphones tem vindo a crescer massivamente nos últimos anos, bem como a diversi cação das suas funcionalidades no dia-a-dia de cada pessoa. O mercado aberto de aplicações para estes equipamentos também tem sofrido uma forte evolução o que permite uma maior qualidade e competitividade pela apresentação de produtos. O conceito de casas inteligentes está cada vez mais presente e é algo que as pessoas se estão a acomodar de forma gradual. Para acompanhar tal feito, é necessário desenvolver as capacidades dos equipamentos que estas pessoas mais usam para que estes possam dar resposta a estas necessidades. Para o caso atual irão ser estudadas as fechaduras inteligentes. Os sistemas comercializados atualmente, são tipicamente sistemas proprietários e apresentam algumas limitações ou faltas (ex: ao nível da segurança, incapacidade de abranger um largo número de dispositivos móveis ou mesmo ao nível do preço). Neste contexto, e com base na caracterização das soluções de controlo de acesso atuais, foi estudada a viabilidade de, usando uma abordagem assente em tecnologias não proprietárias (i.e., abertas), desenvolver soluções de controlo de acesso com características comparáveis com os sistemas proprietários actuais e, eventualmente, ultrapassando os limites e falhas identi cados. Dadas estas premissas o sistema de controlo de acesso móvel pensado envolve um computador BeagleBone Black e a tecnologia sem os Bluetooth. Este sistema permite a fácil integração do computador com qualquer smartphone atual e é dotado de fortes características de segurança e privacidade. O sistema foi concebido inicialmente para ser implementado em fechaduras de portas mas com possibilidade de expansão para outros equipamentos. Além disso, o sistema permitirá também o acesso a terceiros após a devida autorização do dono.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As novas tecnologias, em particular os meios de entretimento digital, oferecem diferentes soluções de interação para que as pessoas se possam divertir. O elevado (e crescente) número de jogos digitais disponíveis no mercado permitiu o aparecimento de um novo tipo de jogos digitais, os jogos sérios, com uma finalidade menos lúdica. O intuito desses jogos é usar as caraterísticas associadas aos jogos normais, mas direcioná-los para uma finalidade séria. Assim, além de divertir o utilizador estes jogos também possibilitam a transmissão de informação e conhecimento que de outra forma não teria o mesmo impacto, por falta de interesse e menor motivação dos utilizadores. Exergames são jogos digitais utilizados para o desenvolvimento pessoal como o propósito de melhorar o bem-estar das pessoas quer a nível físico quer a nível mental. Esses jogos requerem que partes do corpo estejam em constante movimento, sendo que alguns utilizam dispositivos de rastreio de movimentos do corpo como forma de interação com os sistemas. Os exergames são o foco desta tese, com uma análise das suas potencialidades e das diferentes áreas possíveis para a sua aplicabilidade. São analisados diferentes tipos de exergames consoante o dispositivo que irá permitir a utilização do jogo. Também são estudados algumas ferramentas externas que possibilitam a interação de aplicações móveis com equipamentos de exercício físico específicos. A componente prática da tese contempla a criação de um exergame para dispositivos móveis com o intuito de incentivar as pessoas para a prática de corridas de forma regular, para que possam ter um estilo de vida ativo e que contribui de forma direta para o bem-estar deles. Os testes realizados junto a um conjunto de pessoas conduziram a resultados positivos quer do jogo desenvolvido quer da utilidade deste tipo de jogos no desenvolvimento físico, o que permite afirmar que os exergames devido ao seu carácter sério, mas nunca deixando de parte a diversão e a interatividade, são motivadores extras para as pessoas praticarem exercício físico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Muito se tem falado sobre revolução tecnológica e do aparecimento constante de novas aplicações Web, com novas funcionalidades que visam facilitar o trabalho dos utilizadores. Mas será que estas aplicações garantem que os dados transmitidos são tratados e enviados por canais seguros (protocolos)? Que garantias é que o utilizador tem que mesmo que a aplicação utilize um canal, que prevê a privacidade e integridade de dados, esta não apresente alguma vulnerabilidade pondo em causa a informação sensível do utilizador? Software que não foi devidamente testado, aliado à falta de sensibilização por parte dos responsáveis pelo desenvolvimento de software para questões de segurança, levam ao aumento de vulnerabilidades e assim exponenciam o número de potenciais vítimas. Isto aliado ao efeito de desinibição que o sentimento de invisibilidade pode provocar, conduz ao facilitismo e consequentemente ao aumento do número de vítimas alvos de ataques informáticos. O utilizador, por vezes, não sabe muito bem do que se deve proteger, pois a confiança que depõem no software não pressupõem que os seus dados estejam em risco. Neste contexto foram recolhidos dados históricos relativos a vulnerabilidades nos protocolos SSL/TLS, para perceber o impacto que as mesmas apresentam e avaliar o grau de risco. Para além disso, foram avaliados um número significativo de domínios portugueses para perceber se os mesmos têm uma vulnerabilidade específica do protocolo SSL/TLS.