16 resultados para Abertos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tipicamente as redes elétricas de distribuição apresentam uma topologia parcialmente malhada e são exploradas radialmente. A topologia radial é obtida através da abertura das malhas nos locais que otimizam o ponto de operação da rede, através da instalação de aparelhos de corte que operam normalmente abertos. Para além de manterem a topologia radial, estes equipamentos possibilitam também a transferência de cargas entre saídas, aquando da ocorrência de defeitos. As saídas radiais são ainda dotadas de aparelhos de corte que operam normalmente fechados, estes têm como objetivo maximizar a fiabilidade e isolar defeitos, minimizando a área afetada pelos mesmos. Assim, na presente dissertação são desenvolvidos dois algoritmos determinísticos para a localização ótima de aparelhos de corte normalmente abertos e fechados, minimizando a potência ativa de perdas e o custo da energia não distribuída. O algoritmo de localização de aparelhos de corte normalmente abertos visa encontrar a topologia radial ótima que minimiza a potência ativa de perdas. O método é desenvolvido em ambiente Matlab – Tomlab, e é formulado como um problema de programação quadrática inteira mista. A topologia radial ótima é garantida através do cálculo de um trânsito de potências ótimo baseado no modelo DC. A função objetivo é dada pelas perdas por efeito de Joule. Por outro lado o problema é restringido pela primeira lei de Kirchhoff, limites de geração das subestações, limites térmicos dos condutores, trânsito de potência unidirecional e pela condição de radialidade. Os aparelhos de corte normalmente fechados são localizados ao longo das saídas radiais obtidas pelo anterior algoritmo, e permite minimizar o custo da energia não distribuída. No limite é possível localizar um aparelho de corte normalmente fechado em todas as linhas de uma rede de distribuição, sendo esta a solução que minimiza a energia não distribuída. No entanto, tendo em conta que a cada aparelho de corte está associado um investimento, é fundamental encontrar um equilíbrio entre a melhoria de fiabilidade e o investimento. Desta forma, o algoritmo desenvolvido avalia os benefícios obtidos com a instalação de aparelhos de corte normalmente fechados, e retorna o número e a localização dos mesmo que minimiza o custo da energia não distribuída. Os métodos apresentados são testados em duas redes de distribuição reais, exploradas com um nível de tensão de 15 kV e 30 kV, respetivamente. A primeira rede é localizada no distrito do Porto e é caraterizada por uma topologia mista e urbana. A segunda rede é localizada no distrito de Bragança e é caracterizada por uma topologia maioritariamente aérea e rural.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: O acidente vascular encefálico (AVE) é uma importante e frequente condição de saúde que se repercute na funcionalidade do indivíduo. No sentido de reabilitar a função perdida, é comum o recurso a intervenções de fisioterapia baseado o conceito de Bobath. Como tal, importa verificar, as modificações no âmbito do controlo postural, através da migração do centro de pressão na base de suporte, face à aplicação de uma intervenção segundo abordagem baseada no conceito de Bobath em dois indivíduos com AVE. Métodos e participantes: Foram recrutados dois indivíduos com diagnóstico de AVE num hospital da zona do grande Porto. Dados referentes ao equilíbrio estático na condição de medição “olhos abertos ou fechados” e “calçado ou descalço” foram obtidos através de plataforma de forças, antes e após uma intervenção baseado no conceito de Bobath durante 13 semanas (M0 e M1). Nestes dois momentos foram ainda avaliados a mobilidade, função cognitiva, participação, equilíbrio através do teste Timed Up & Go (TUG) e Timed Up & Go Modificado (TUGM), e das escalas Mini Mental State Examination (MMSE), Postural Assessment for Stroke Scale (PASS), Escala de Berg (EB) e Índice de Barthel Modificado (IBM). Resultados: Os participantes obtiveram em ambos os momentos pontuação máxima no MMSE. Ambos os indivíduos atingiram o valor máximo no IBM em M1 (Mo: A: 78; B: 65). Ambos os indivíduos aumentaram o score entre M0 e M1, relativamente ao PASS (A: M0:21; M1:33; B: M0: 26; M1:34) e EB (A: M0:48; M1:54; B: M0: 30; M1:50). O tempo de realização do TUG e do TUGM diminuíram entre momentos em ambos os indivíduos (respectivamente: A: 15''13'' a 13''27''; B: 24''13'' a 13''88'' e A: 19''08''' a 13''27''; B: 29''60''' a 17''64'''). A área de deslocação do centro de pressão (CP) variou entre momentos em todas as condições de avaliação, sendo menor na condição “olhos abertos e descalço” em ambos os participantes (“olhos abertos e calçado”: A: M0= 1,364, M1=2,796; B: M0=1,892, M1=2,979; “olhos abertos e descalço”: A: M0= 0,758, M1=0,727; B: M0=3,064, M1=1,952; “olhos fechados e calçado”: A: M0= 2,360, M1=2,998; B: M0=2,232, M1= 4,392; “olhos fechados e descalço”: A: M0= 1,347, M1=2,388; B: M0=1,652, M1= 1,016). O desvio padrão das deslocações anteroposteriores variou entre momentos, sendo tendencialmente maior em M1 e na condição “descalço e olhos abertos”(“olhos abertos e calçado”: A: M0= 0,201, M1=0,500; B: M0=0,252, M1=0,310; “olhos abertos e descalço”: A: M0= 0,118, M1=0,165; B: M0=0,282, M1=0,276; “olhos fechados e calçado”: A: M0= 0,308, M1=0,398; B: M0=0,274, M1= 0,471; “olhos fechados e descalço”: A: M0= 0,158 , M1=0,373; B: M0=0,230, M1= 0,172), o desvio padrão das deslocações médio-lateral seguem a mesma tendência (“olhos abertos e calçado”: A: M0= 0,370 , M1=0,473; B: M0=0,454, M1=0,517; “olhos abertos e descalço”: A: M0= 0,354, M1=0,236 ; B: M0=0,584, M1=0,381; “olhos fechados e calçado”: A: M0= 0,425, M1=0,463; B: M0=0,462, M1= 0,583; “olhos fechados e descalço”: A: M0= 0,475, M1=0,416; B: M0=0,389, M1= 0,342). A velocidade de oscilação na direcção antero – posterior variou entre momentos, sendo tendencialmente menor em M1, em ambos os participantes e em todas as condições de avaliação: “olhos abertos e calçado”: A: M0= 0,886 , M1=0,532; B: M0=2,507, M1=01,072; “olhos abertos e descalço”: A: M0= 2,562, M1=3,815 ; B: M0=4,367, M1=0,262; “olhos fechados e calçado”: A: M0= 2,689, M1=1,757; B: M0=2,821, M1= 0,769; “olhos fechados e descalço”: A: M0= 2,984, M1=2,525; B: M0=4,100, M1= 0,265), a velocidade de oscilação na direcção médio – lateral seguem a mesma tendência para as condições de “olhos abertos e calçado”: A: M0= 6,524 , M1=6,218; B: M0=0,467, M1=0,404; “olhos fechados e calçado”: A: M0= 6,387, M1=1,927; B: M0=0,351, M1= 0,505; mas a velocidade de oscilação aumenta para as condições de “olhos abertos e descalço”: A: M0= 3,108, M1=7,806 ; B: M0=1,150, M1=8,054; “olhos fechados e descalço”: A: M0= 3,444, M1=3,839; B: M0=1,434, M1= 7,891). Conclusão: Entre os dois momentos os indivíduos melhoraram a sua mobilidade, equilíbrio, participação e actividades, potencialmente devido à intervenção baseado no conceito de Bobath.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objectivo deste trabalho era a determinação da influência das condições de armazenamento do biodiesel nas suas propriedades e composição. Para isso foi produzido biodiesel a partir de óleo alimentar usado e armazenado em diferentes condições. O biodiesel foi colocado em frascos de vidro e dividido em três grupos diferentes de temperatura. O primeiro foi colocado a uma temperatura de 6ºC (frigorifico) com frascos fechados e expostos ao ar e água. O segundo grupo foi colocado a uma temperatura de 40ºC (banho termostático) com frascos fechados, abertos ao ar e abertos ao ar e água. O terceiro e ultimo grupo foi colocado à temperatura ambiente (18,6abertos ao ar e abertos ao ar e água. O armazenamento foi realizado durante 118 dias (16 semanas) e os parâmetros foram avaliados regularmente. Os parâmetros estudados foram o teor de ésteres, índice de acidez, índice de iodo, índice de peróxidos, teor de água, viscosidade cinemática a 40ºC e absorvância (UV/VIS e FTIR). Depois da análise dos resultados obtidos verificou-se que para as amostras armazenadas a 40ºC e expostas a ar e água, o índice de acidez e viscosidade aumentaram, enquanto o teor de ésteres totais diminuiu. Já o índice de peróxidos aumentou inicialmente, até atingir um valor máximo, apresentando de seguida uma tendência decrescente. O aumento inicial corresponde à formação de hidroperóxidos, já o declínio provavelmente corresponderá à sua degradação e formação de compostos como aldeídos. Os aldeídos por sua vez oxidam e dão origem a ácidos, justificando assim o aumento do índice de acidez. Este índice pode aumentar também devido à hidrólise dos ésteres causada pela presença de água, dando origem a álcoois e ácidos. Em contrapartida para as amostras armazenadas a temperaturas mais baixas os parâmetros mantiveram-se praticamente constantes ao longo do tempo. O índice de iodo não permitiu concluir claramente que houve uma diminuição nas ligações duplas como seria espectável. Ao analisar os cromatogramas obtidos na determinação dos ésteres das amostras armazenadas em contacto com ar e água, a 40ºC verifica-se a formação de ácidos gordos a partir dos 81 dias de armazenamento. Com os resultados obtidos verificou-se que para as amostras colocadas a 40ºC e em contacto com ar e água a taxa de oxidação é mais acelerada, fazendo com que o biodiesel perca as características e propriedades iniciais, já no caso das amostras armazenadas a 6ºC e em frascos fechados verifica-se que os parâmetros estudados praticamente não sofrem alterações, mantendo quase inalteradas as propriedades e composição do biodiesel ao fim das 16 semanas de estudo. Assim é possível concluir que para se conseguir manter as características e propriedades do biodiesel durante um armazenamento prolongado é necessário garantir um ambiente fresco de preferência inerte e depósitos completamentos secos, de forma a evitar as condições que provocam oxidação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente, os sistemas embebidos estão presentes em toda a parte. Embora grande parte da população que os utiliza não tenha a noção da sua presença, na realidade, se repentinamente estes sistemas deixassem de existir, a sociedade iria sentir a sua falta. A sua utilização massiva deve-se ao facto de estarem practicamente incorporados em quase os todos dispositivos electrónicos de consumo, telecomunicações, automação industrial e automóvel. Influenciada por este crescimento, a comunidade científica foi confrontada com novos problemas distribuídos por vários domínios científicos, dos quais são destacados a gestão da qualidade de serviço e gestão de recursos - domínio encarregue de resolver problemas relacionados com a alocação óptima de recursos físicos, tais como rede, memória e CPU. Existe na literatura um vasto conjunto de modelos que propõem soluções para vários problemas apresentados no contexto destes domínios científicos. No entanto, não é possível encontrar modelos que lidem com a gestão de recursos em ambientes de execução cooperativos e abertos com restrições temporais utilizando coligações entre diferentes nós, de forma a satisfazer os requisitos não funcionais das aplicações. Devido ao facto de estes sistemas serem dinâmicos por natureza, apresentam a característica de não ser possível conhecer, a priori, a quantidade de recursos necessários que uma aplicação irá requerer do sistema no qual irá ser executada. Este conhecimento só é adquirido aquando da execução da aplicação. De modo a garantir uma gestão eficiente dos recursos disponíveis, em sistemas que apresentam um grande dinamismo na execução de tarefas com e sem restrições temporais, é necessário garantir dois aspectos fundamentais. O primeiro está relacionado com a obtenção de garantias na execução de tarefas de tempo-real. Estas devem sempre ser executadas dentro da janela temporal requirida. O segundo aspecto refere a necessidade de garantir que todos os recursos necessários à execução das tarefas são fornecidos, com o objectivo de manter os níveis de performance quer das aplicações, quer do próprio sistema. Tendo em conta os dois aspectos acima mencionados, o projecto CooperatES foi especificado com o objectivo de permitir a dispositivos com poucos recursos uma execução colectiva de serviços com os seus vizinhos, de modo a cumprir com as complexas restrições de qualidade de serviço impostas pelos utilizadores ou pelas aplicações. Decorrendo no contexto do projecto CooperatES, o trabalho resultante desta tese tem como principal objectivo avaliar a practicabilidade dos conceitos principais propostos no âmbito do projecto. O trabalho em causa implicou a escolha e análise de uma plataforma, a análise de requisitos, a implementação e avaliação de uma framework que permite a execução cooperativa de aplicações e serviços que apresentem requisitos de qualidade de serviço. Do trabalho desenvolvido resultaram as seguintes contribuições: Análise das plataformas de código aberto que possam ser utilizadas na implementação dos conceitos relacionados com o projecto CooperatES; Critérios que influenciaram a escolha da plataforma Android e um estudo focado na análise da plataforma sob uma perspectiva de sistemas de tempo-real; Experiências na implementação dos conceitos do projecto na plataforma Android; Avaliação da practicabilidade dos conceitos propostos no projecto CooperatES; Proposta de extensões que permitam incorporar características de sistemas de tempo real abertos na plataforma Android.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de software orientado a modelos defende a utilização dos modelos como um artefacto que participa activamente no processo de desenvolvimento. O modelo ocupa uma posição que se encontra ao mesmo nível do código. Esta é uma abordagem importante que tem sido alvo de atenção crescente nos últimos tempos. O Object Management Group (OMG) é o responsável por uma das principais especificações utilizadas na definição da arquitectura dos sistemas cujo desenvolvimento é orientado a modelos: o Model Driven Architecture (MDA). Os projectos que têm surgido no âmbito da modelação e das linguagens específicas de domínio para a plataforma Eclipse são um bom exemplo da atenção dada a estas áreas. São projectos totalmente abertos à comunidade, que procuram respeitar os standards e que constituem uma excelente oportunidade para testar e por em prática novas ideias e abordagens. Nesta dissertação foram usadas ferramentas criadas no âmbito do Amalgamation Project, desenvolvido para a plataforma Eclipse. Explorando o UML e usando a linguagem QVT, desenvolveu-se um processo automático para extrair elementos da arquitectura do sistema a partir da definição de requisitos. Os requisitos são representados por modelos UML que são transformados de forma a obter elementos para uma aproximação inicial à arquitectura do sistema. No final, obtêm-se um modelo UML que agrega os componentes, interfaces e tipos de dados extraídos a partir dos modelos dos requisitos. É uma abordagem orientada a modelos que mostrou ser exequível, capaz de oferecer resultados práticos e promissora no que concerne a trabalho futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Teia Mundial (Web) foi prevista como uma rede de documentos de hipertexto interligados de forma a criar uma espaço de informação onde humanos e máquinas poderiam comunicar. No entanto, a informação contida na Web tradicional foi/é armazenada de forma não estruturada o que leva a que apenas os humanos a possam consumir convenientemente. Consequentemente, a procura de informações na Web sintáctica é uma tarefa principalmente executada pelos humanos e nesse sentido nem sempre é fácil de concretizar. Neste contexto, tornou-se essencial a evolução para uma Web mais estruturada e mais significativa onde é dado significado bem definido à informação de forma a permitir a cooperação entre humanos e máquinas. Esta Web é usualmente referida como Web Semântica. Além disso, a Web Semântica é totalmente alcançável apenas se os dados de diferentes fontes forem ligados criando assim um repositório de Dados Abertos Ligados (LOD). Com o aparecimento de uma nova Web de Dados (Abertos) Ligados (i.e. a Web Semântica), novas oportunidades e desafios surgiram. Pergunta Resposta (QA) sobre informação semântica é actualmente uma área de investigação activa que tenta tirar vantagens do uso das tecnologias ligadas à Web Semântica para melhorar a tarefa de responder a questões. O principal objectivo do projecto World Search passa por explorar a Web Semântica para criar mecanismos que suportem os utilizadores de domínios de aplicação específicos a responder a questões complexas com base em dados oriundos de diferentes repositórios. No entanto, a avaliação feita ao estado da arte permite concluir que as aplicações existentes não suportam os utilizadores na resposta a questões complexas. Nesse sentido, o trabalho desenvolvido neste documento foca-se em estudar/desenvolver metodologias/processos que permitam ajudar os utilizadores a encontrar respostas exactas/corretas para questões complexas que não podem ser respondidas fazendo uso dos sistemas tradicionais. Tal inclui: (i) Ultrapassar a dificuldade dos utilizadores visionarem o esquema subjacente aos repositórios de conhecimento; (ii) Fazer a ponte entre a linguagem natural expressa pelos utilizadores e a linguagem (formal) entendível pelos repositórios; (iii) Processar e retornar informações relevantes que respondem apropriadamente às questões dos utilizadores. Para esse efeito, são identificadas um conjunto de funcionalidades que são consideradas necessárias para suportar o utilizador na resposta a questões complexas. É também fornecida uma descrição formal dessas funcionalidades. A proposta é materializada num protótipo que implementa as funcionalidades previamente descritas. As experiências realizadas com o protótipo desenvolvido demonstram que os utilizadores efectivamente beneficiam das funcionalidades apresentadas: ▪ Pois estas permitem que os utilizadores naveguem eficientemente sobre os repositórios de informação; ▪ O fosso entre as conceptualizações dos diferentes intervenientes é minimizado; ▪ Os utilizadores conseguem responder a questões complexas que não conseguiam responder com os sistemas tradicionais. Em suma, este documento apresenta uma proposta que comprovadamente permite, de forma orientada pelo utilizador, responder a questões complexas em repositórios semiestruturados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Química - Ramo Optimização Energética na Indústria Química

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta uma proposta de sistema capaz de preencher a lacuna entre documentos legislativos em formato PDF e documentos legislativos em formato aberto. O objetivo principal é mapear o conhecimento presente nesses documentos de maneira a representar essa coleção como informação interligada. O sistema é composto por vários componentes responsáveis pela execução de três fases propostas: extração de dados, organização de conhecimento, acesso à informação. A primeira fase propõe uma abordagem à extração de estrutura, texto e entidades de documentos PDF de maneira a obter a informação desejada, de acordo com a parametrização do utilizador. Esta abordagem usa dois métodos de extração diferentes, de acordo com as duas fases de processamento de documentos – análise de documento e compreensão de documento. O critério utilizado para agrupar objetos de texto é a fonte usada nos objetos de texto de acordo com a sua definição no código de fonte (Content Stream) do PDF. A abordagem está dividida em três partes: análise de documento, compreensão de documento e conjunção. A primeira parte da abordagem trata da extração de segmentos de texto, adotando uma abordagem geométrica. O resultado é uma lista de linhas do texto do documento; a segunda parte trata de agrupar os objetos de texto de acordo com o critério estipulado, produzindo um documento XML com o resultado dessa extração; a terceira e última fase junta os resultados das duas fases anteriores e aplica regras estruturais e lógicas no sentido de obter o documento XML final. A segunda fase propõe uma ontologia no domínio legal capaz de organizar a informação extraída pelo processo de extração da primeira fase. Também é responsável pelo processo de indexação do texto dos documentos. A ontologia proposta apresenta três características: pequena, interoperável e partilhável. A primeira característica está relacionada com o facto da ontologia não estar focada na descrição pormenorizada dos conceitos presentes, propondo uma descrição mais abstrata das entidades presentes; a segunda característica é incorporada devido à necessidade de interoperabilidade com outras ontologias do domínio legal, mas também com as ontologias padrão que são utilizadas geralmente; a terceira característica é definida no sentido de permitir que o conhecimento traduzido, segundo a ontologia proposta, seja independente de vários fatores, tais como o país, a língua ou a jurisdição. A terceira fase corresponde a uma resposta à questão do acesso e reutilização do conhecimento por utilizadores externos ao sistema através do desenvolvimento dum Web Service. Este componente permite o acesso à informação através da disponibilização de um grupo de recursos disponíveis a atores externos que desejem aceder à informação. O Web Service desenvolvido utiliza a arquitetura REST. Uma aplicação móvel Android também foi desenvolvida de maneira a providenciar visualizações dos pedidos de informação. O resultado final é então o desenvolvimento de um sistema capaz de transformar coleções de documentos em formato PDF para coleções em formato aberto de maneira a permitir o acesso e reutilização por outros utilizadores. Este sistema responde diretamente às questões da comunidade de dados abertos e de Governos, que possuem muitas coleções deste tipo, para as quais não existe a capacidade de raciocinar sobre a informação contida, e transformá-la em dados que os cidadãos e os profissionais possam visualizar e utilizar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A quantidade e variedade de conteúdos multimédia actualmente disponíveis cons- tituem um desafio para os utilizadores dado que o espaço de procura e escolha de fontes e conteúdos excede o tempo e a capacidade de processamento dos utilizado- res. Este problema da selecção, em função do perfil do utilizador, de informação em grandes conjuntos heterogéneos de dados é complexo e requer ferramentas específicas. Os Sistemas de Recomendação surgem neste contexto e são capazes de sugerir ao utilizador itens que se coadunam com os seus gostos, interesses ou necessidades, i.e., o seu perfil, recorrendo a metodologias de inteligência artificial. O principal objectivo desta tese é demonstrar que é possível recomendar em tempo útil conteúdos multimédia a partir do perfil pessoal e social do utilizador, recorrendo exclusivamente a fontes públicas e heterogéneas de dados. Neste sen- tido, concebeu-se e desenvolveu-se um Sistema de Recomendação de conteúdos multimédia baseado no conteúdo, i.e., nas características dos itens, no historial e preferências pessoais e nas interacções sociais do utilizador. Os conteúdos mul- timédia recomendados, i.e., os itens sugeridos ao utilizador, são provenientes da estação televisiva britânica, British Broadcasting Corporation (BBC), e estão classificados de acordo com as categorias dos programas da BBC. O perfil do utilizador é construído levando em conta o historial, o contexto, as preferências pessoais e as actividades sociais. O YouTube é a fonte do histo- rial pessoal utilizada, permitindo simular a principal fonte deste tipo de dados - a Set-Top Box (STB). O historial do utilizador é constituído pelo conjunto de vídeos YouTube e programas da BBC vistos pelo utilizador. O conteúdo dos vídeos do YouTube está classificado segundo as categorias de vídeo do próprio YouTube, sendo efectuado o mapeamento para as categorias dos programas da BBC. A informação social, que é proveniente das redes sociais Facebook e Twit- ter, é recolhida através da plataforma Beancounter. As actividades sociais do utilizador obtidas são filtradas para extrair os filmes e séries que são, por sua vez, enriquecidos semanticamente através do recurso a repositórios abertos de dados interligados. Neste caso, os filmes e séries são classificados através dos géneros da IMDb e, posteriormente, mapeados para as categorias de programas da BBC. Por último, a informação do contexto e das preferências explícitas, através da classificação dos itens recomendados, do utilizador são também contempladas. O sistema desenvolvido efectua recomendações em tempo real baseado nas actividades das redes sociais Facebook e Twitter, no historial de vídeos Youtube e de programas da BBC vistos e preferências explícitas. Foram realizados testes com cinco utilizadores e o tempo médio de resposta do sistema para criar o conjunto inicial de recomendações foi 30 s. As recomendações personalizadas são geradas e actualizadas mediante pedido expresso do utilizador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o envelhecimento da população, as preocupações com a garantia do seu bem-estar aumentam criando a necessidade de desenvolver ferramentas que permitam monitorizar em permanência este sector da população. A utilização de smartphones pelos mais velhos pode ser crucial no seu bem-estar e na sua autonomia contribuindo para a recolha de informação importante já que estes estão muitas vezes equipados com sensores que podem dar indicações preciosas ao cuidador sobre o estado atual do paciente. Os sensores podem fornecer dados sobre a atividade física do paciente, bem como detetar quedas ou calcular a sua posição, com a ajuda do acelerómetro, do giroscópio e do sensor de campo magnético. No entanto, funcionalidades como essas requerem, obrigatoriamente, uma frequência de amostragem mínima por parte dos sensores que permita a implementação de algoritmos, que determinarão esses parâmetros da forma mais exata possível. Dado que nem sempre os pacientes se fazem acompanhar do seu smartphone quando estão na sua residência, a criação de ambientes de AAL (Ambient Assisted Living) com recurso a dispositivos externos que podem ser “vestidos” pelos pacientes pode também ser uma solução adequada. Estes contêm normalmente os mesmos sensores que os smartphones e comunicam com estes através de tecnologias sem fios, como é o caso do Bluetooth Low Energy. Neste trabalho, avaliou-se a possibilidade de alteração da frequência dos sensores em diferentes sistemas operativos, tendo sido efectuadas modificações nas instalações por defeito de alguns sistemas operativos abertos. Com o objectivo de permitir a criação de uma solução de AAL com recurso a um dispositivo externo implementaram-se serviços e perfis num dispositivo externo, o SensorTag.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem como objetivo analisar o estado atual da preservação digital no tecido empresarial português, particularmente nas empresas de média e grande dimensão. Para tal, expôs-se o referencial teórico da preservação digital, necessário para uma melhor compreensão desta temática, nomeadamente através da apresentação de definições de diversos autores, de estratégias e boas práticas, e de algumas das iniciativas internacionais mais relevantes. De seguida apresentou-se a importância que a informação tem para uma organização, sobretudo aquela informação criada no âmbito laboral. Realizou-se, também, uma caracterização dos vários tipos de empresas, de acordo com diretivas europeias, e efetuou-se uma breve análise das empresas portuguesas. Para atingir esse objetivo elaborou-se um inquérito, por questionário, fazendo- se uso de uma plataforma de questionários online. Este foi remetido a 1.358 médias e grandes empresas que atuam em Portugal, com o objetivo de compreender – entre outros – a importância dada, pelas empresas, ao material existente em formato digital, quais as tecnologias responsáveis pelo seu armazenamento e quais os cuidados realizados para assegurar o seu acesso por longos períodos de tempo. Ao analisar os resultados, e pese embora a baixa taxa de resposta ao questionário, foi possível concluir que quase todas as empresas participantes já procuram substituir os documentos em papel por documentos em formato digital e que se preocupam em manter o acesso prolongado à informação. Não obstante, dois terços dos participantes conhecem o conceito de preservação digital e apenas 44% afirmam aplicar estratégias desse tipo na sua empresa. Apesar de cerca de 70% dos participantes reconhecerem a importância do uso de formatos abertos para a preservação digital, na realidade ainda se verifica uma utilização massiva de formatos proprietários ao nível dos documentos de texto e das folhas de cálculo. Para além deste contributo analítico sobre o estado da preservação digital no tecido empresarial português, prepararam-se alguns documentos que visam auxiliar a elaboração de um plano de preservação digital e, consequentemente, permitir a sustentabilidade a longo prazo da informação digital.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os Mercados Eletrónicos atingiram uma complexidade e nível de sofisticação tão elevados, que tornaram inadequados os modelos de software convencionais. Estes mercados são caracterizados por serem abertos, dinâmicos e competitivos, e constituídos por várias entidades independentes e heterogéneas. Tais entidades desempenham os seus papéis de forma autónoma, seguindo os seus objetivos, reagindo às ocorrências do ambiente em que se inserem e interagindo umas com as outras. Esta realidade levou a que existisse por parte da comunidade científica um especial interesse no estudo da negociação automática executada por agentes de software [Zhang et al., 2011]. No entanto, a diversidade dos atores envolvidos pode levar à existência de diferentes conceptualizações das suas necessidades e capacidades dando origem a incompatibilidades semânticas, que podem prejudicar a negociação e impedir a ocorrência de transações que satisfaçam as partes envolvidas. Os novos mercados devem, assim, possuir mecanismos que lhes permitam exibir novas capacidades, nomeadamente a capacidade de auxiliar na comunicação entre os diferentes agentes. Pelo que, é defendido neste trabalho que os mercados devem oferecer serviços de ontologias que permitam facilitar a interoperabilidade entre os agentes. No entanto, os humanos tendem a ser relutantes em aceitar a conceptualização de outros, a não ser que sejam convencidos de que poderão conseguir um bom negócio. Neste contexto, a aplicação e exploração de relações capturadas em redes sociais pode resultar no estabelecimento de relações de confiança entre vendedores e consumidores, e ao mesmo tempo, conduzir a um aumento da eficiência da negociação e consequentemente na satisfação das partes envolvidas. O sistema AEMOS é uma plataforma de comércio eletrónico baseada em agentes que inclui serviços de ontologias, mais especificamente, serviços de alinhamento de ontologias, incluindo a recomendação de possíveis alinhamentos entre as ontologias dos parceiros de negociação. Este sistema inclui também uma componente baseada numa rede social, que é construída aplicando técnicas de análise de redes socias sobre informação recolhida pelo mercado, e que permite melhorar a recomendação de alinhamentos e auxiliar os agentes na sua escolha. Neste trabalho são apresentados o desenvolvimento e implementação do sistema AEMOS, mais concretamente: • É proposto um novo modelo para comércio eletrónico baseado em agentes que disponibiliza serviços de ontologias; • Adicionalmente propõem-se o uso de redes sociais emergentes para captar e explorar informação sobre relações entre os diferentes parceiros de negócio; • É definida e implementada uma componente de serviços de ontologias que é capaz de: • o Sugerir alinhamentos entre ontologias para pares de agentes; • o Traduzir mensagens escritas de acordo com uma ontologia em mensagens escritas de acordo com outra, utilizando alinhamentos previamente aprovados; • o Melhorar os seus próprios serviços recorrendo às funcionalidades disponibilizadas pela componente de redes sociais; • É definida e implementada uma componente de redes sociais que: • o É capaz de construir e gerir um grafo de relações de proximidade entre agentes, e de relações de adequação de alinhamentos a agentes, tendo em conta os perfis, comportamento e interação dos agentes, bem como a cobertura e utilização dos alinhamentos; • o Explora e adapta técnicas e algoritmos de análise de redes sociais às várias fases dos processos do mercado eletrónico. A implementação e experimentação do modelo proposto demonstra como a colaboração entre os diferentes agentes pode ser vantajosa na melhoria do desempenho do sistema e como a inclusão e combinação de serviços de ontologias e redes sociais se reflete na eficiência da negociação de transações e na dinâmica do mercado como um todo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao longo do projeto encarou-se a Educação e Formação de Adultos como um motor para a liberdade, definida como a autonomia para se procurar e viver um destino. Destino que não é apenas o porto onde atraca o barco à chegada, mas o processo de destinação na rota. Hodiernamente vivemos atracados ao paradigma da Aprendizagem ao Longo da Vida, ancorados a processos económicos e ideológicos que ditam as orientações de atuação do Instituto de Emprego e Formação Profissional na forma com se planeiam e organizam os Cursos de Educação e Formação de Adultos. Traçaram-se as rotas que Portugal percorreu até desenvolver as políticas de Educação e Formação de Adultos atuais. Essas políticas influenciam sobremaneira a organização e planeamento dos Cursos de Educação e Formação de Adultos desenvolvidos pelo Instituto de Emprego e Formação de Vila Real que se vê agrilhoado aos ideais neoliberais, à falta de recursos, de ideais e de esperança. Procurou-se construir um projeto que conceba o planeamento e a organização dos cursos de Educação e Formação de Adultos numa ótica emancipadora da educação enraizada em contextos locais, em que as diretrizes do Estado se constituem como uma moldura mas não se restringem à rigidez do caixilho, assente em lógicas de responsabilidade comunitária em processos relacionais abertos, dialogados e críticos assentes em conteúdos vividos, aprendidos e transformados. Espera-se e deseja-se que aqueles processos comprometam de forma decisiva todos os que se vêem envolvidos neste feixe de relações a partir do qual cada um se forma, e desenvolvendo-se, se envolve na possibilidade de destinar a rota.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em 2006, a IEA (Agência Internacional de Energia), publicou alguns estudos de consumos mundiais de energia. Naquela altura, apontava na fabricação de produtos, um consumo mundial de energia elétrica, de origem fóssil de cerca 86,16 EJ/ano (86,16×018 J) e um consumo de energia nos sistemas de vapor de 32,75 EJ/ano. Evidenciou também nesses estudos que o potencial de poupança de energia nos sistemas de vapor era de 3,27 EJ/ano. Ou seja, quase tanto como a energia consumida nos sistemas de vapor da U.E. Não se encontraram números relativamente a Portugal, mas comparativamente com outros Países publicitados com alguma similaridade, o consumo de energia em vapor rondará 0,2 EJ/ano e por conseguinte um potencial de poupança de cerca 0,02 EJ/ano, ou 5,6 × 106 MWh/ano ou uma potência de 646 MW, mais do que a potência de cinco barragens Crestuma/Lever! Trata-se efetivamente de muita energia; interessa por isso perceber o onde e o porquê deste desperdício. De um modo muito modesto, pretende-se com este trabalho dar algum contributo neste sentido. Procurou-se evidenciar as possibilidades reais de os utilizadores de vapor de água na indústria reduzirem os consumos de energia associados à sua produção. Não estão em causa as diferentes formas de energia para a geração de vapor, sejam de origem fóssil ou renovável; interessou neste trabalho estudar o modo de como é manuseado o vapor na sua função de transporte de energia térmica, e de como este poderá ser melhorado na sua eficiência de cedência de calor, idealmente com menor consumo de energia. Com efeito, de que servirá se se optou por substituir o tipo de queima para uma mais sustentável se a jusante se continuarem a verificarem desperdícios, descarga exagerada nas purgas das caldeiras com perda de calor associada, emissões permanentes de vapor para a atmosfera em tanques de condensado, perdas por válvulas nos vedantes, purgadores avariados abertos, pressão de vapor exageradamente alta atendendo às temperaturas necessárias, “layouts” do sistema de distribuição mal desenhados, inexistência de registos de produção e consumos de vapor, etc. A base de organização deste estudo foi o ciclo de vapor: produção, distribuição, consumo e recuperação de condensado. Pareceu importante incluir também o tratamento de água, atendendo às implicações na transferência de calor das superfícies com incrustações. Na produção de vapor, verifica-se que os maiores problemas de perda de energia têm a ver com a falta de controlo, no excesso de ar e purgas das caldeiras em exagero. Na distribuição de vapor aborda-se o dimensionamento das tubagens, necessidade de purgas a v montante das válvulas de controlo, a redução de pressão com válvulas redutoras tradicionais; será de destacar a experiência americana no uso de micro turbinas para a redução de pressão com produção simultânea de eletricidade. Em Portugal não se conhecem instalações com esta opção. Fabricantes da República Checa e Áustria, têm tido sucesso em algumas dezenas de instalações de redução de pressão em diversos países europeus (UK, Alemanha, R. Checa, França, etc.). Para determinação de consumos de vapor, para projeto ou mesmo para estimativa em máquinas existentes, disponibiliza-se uma série de equações para os casos mais comuns. Dá-se especial relevo ao problema que se verifica numa grande percentagem de permutadores de calor, que é a estagnação de condensado - “stalled conditions”. Tenta-se também evidenciar as vantagens da recuperação de vapor de flash (infelizmente de pouca tradição em Portugal), e a aplicação de termocompressores. Finalmente aborda-se o benchmarking e monitorização, quer dos custos de vapor quer dos consumos específicos dos produtos. Esta abordagem é algo ligeira, por manifesta falta de estudos publicados. Como trabalhos práticos, foram efetuados levantamentos a instalações de vapor em diversos sectores de atividades; 1. ISEP - Laboratório de Química. Porto, 2. Prio Energy - Fábrica de Biocombustíveis. Porto de Aveiro. 3. Inapal Plásticos. Componentes de Automóvel. Leça do Balio, 4. Malhas Sonix. Tinturaria Têxtil. Barcelos, 5. Uma instalação de cartão canelado e uma instalação de alimentos derivados de soja. Também se inclui um estudo comparativo de custos de vapor usado nos hospitais: quando produzido por geradores de vapor com queima de combustível e quando é produzido por pequenos geradores elétricos. Os resultados estão resumidos em tabelas e conclui-se que se o potencial de poupança se aproxima do referido no início deste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.