66 resultados para Complexidade : Algoritmos recursivos : Equações características
Resumo:
A verificação das Características Garantidas associadas aos equipamentos, em especial dos aerogeradores, incluídos no fornecimento de Parques Eólicos, reveste-se de particular importância devido, principalmente, ao grande volume de investimento em jogo, ao longo período necessário ao retorno do mesmo, à incerteza quanto à manutenção futura das actuais condições de remuneração da energia eléctrica produzida e ainda à falta de dados históricos sobre o período de vida útil esperado para os aerogeradores. Em face do exposto, é usual serem exigidas aos fornecedores, garantias do bom desempenho dos equipamentos, associadas a eventuais penalidades, quer para o período de garantia, quer para o restante período de vida útil, de modo a minimizar o risco associado ao investimento. No fornecimento de Parques Eólicos existem usualmente três tipos de garantias, nomeadamente, garantia de Curva de Potência dos aerogeradores, garantia de Disponibilidade dos equipamentos ou garantia de Produção de Energia. Estas poderão existir isoladamente ou em combinação, dependendo das condições contratuais acordadas entre o Adjudicatário e o Fornecedor. O grau de complexidade e/ou trabalho na implementação das mesmas é variável, não sendo possível afirmar qual delas é a mais conveniente para o Adjudicatário, nem qual a mais exacta em termos de resultados. Estas dúvidas surgem em consequência das dificuldades inerentes à recolha dos próprios dados e também da relativamente ampla margem de rearranjo dos resultados permitido pelas normas existentes, possibilitando a introdução de certo tipo de manipulações nos dados (rejeições e correlações), as quais podem afectar de forma considerável as incertezas dos resultados finais dos ensaios. Este trabalho, consistiu no desenvolvimento, execução, ensaio e implementação de uma ferramenta informática capaz de detectar de uma forma simples e expedita eventuais desvios à capacidade de produção esperada para os aerogeradores, em função do recurso verificado num dado período. Pretende ser uma ferramenta manuseável por qualquer operador de supervisão, com utilização para efeitos de reparações e correcção de defeitos, não constituindo contudo uma alternativa a outros processos abrangidos por normas, no caso de aplicação de penalidades. Para o seu funcionamento, são utilizados os dados mensais recolhidos pela torre meteorológica permanente instalada no parque e os dados de funcionamento dos aerogeradores, recolhidos pelo sistema SCADA. Estes são recolhidos remotamente sob a forma de tabelas e colocados numa directoria própria, na qual serão posteriormente lidos pela ferramenta.
Resumo:
O aumento da população Mundial, particularmente em Países emergentes como é o caso da China e da Índia, tem-se relevado um problema adicional no que confere às dificuldades associadas ao consumo mundial de energia, pois esta situação limita inequivocamente o acesso destes milhões de pessoas à energia eléctrica para os bens básicos de sobrevivência. Uma das muitas formas de se extinguir esta necessidade, começa a ser desenvolvida recorrendo ao uso de recursos renováveis como fontes de energia. Independentemente do local do mundo onde nos encontremos, essas fontes de energia são abundantes, inesgotáveis e gratuitas. O problema reside na forma como esses recursos renováveis são geridos em função das solicitações de carga que as instalações necessitam. Sistemas híbridos podem ser usados para produzir energia em qualquer parte do mundo. Historicamente este tipo de sistemas eram aplicados em locais isolados, mas nos dias que correm podem ser usados directamente conectados à rede, permitindo que se realize a venda de energia. Foi neste contexto que esta tese foi desenvolvida, com o objectivo de disponibilizar uma ferramenta informática capaz de calcular a rentabilidade de um sistema híbrido ligado à rede ou isolado. Contudo, a complexidade deste problema é muito elevada, pois existe uma extensa panóplia de características e distintos equipamentos que se pode adoptar. Assim, a aplicação informática desenvolvida teve de ser limitada e restringida aos dados disponíveis de forma a poder tornar-se genérica, mas ao mesmo tempo permitir ter uma aplicabilidade prática. O objectivo da ferramenta informática desenvolvida é apresentar de forma imediata os custos da implementação que um sistema híbrido pode acarretar, dependendo apenas de três variáveis distintas. A primeira variável terá de ter em consideração o local de instalação do sistema. Em segundo lugar é o tipo de ligação (isolado ou ligado à rede) e, por fim, o custo dos equipamentos (eólico, solar e restantes componentes) que serão introduzidos. Após a inserção destes dados a aplicação informática apresenta valores estimados de Payback e VAL.
Resumo:
The introduction of electricity markets and integration of Distributed Generation (DG) have been influencing the power system’s structure change. Recently, the smart grid concept has been introduced, to guarantee a more efficient operation of the power system using the advantages of this new paradigm. Basically, a smart grid is a structure that integrates different players, considering constant communication between them to improve power system operation and management. One of the players revealing a big importance in this context is the Virtual Power Player (VPP). In the transportation sector the Electric Vehicle (EV) is arising as an alternative to conventional vehicles propel by fossil fuels. The power system can benefit from this massive introduction of EVs, taking advantage on EVs’ ability to connect to the electric network to charge, and on the future expectation of EVs ability to discharge to the network using the Vehicle-to-Grid (V2G) capacity. This thesis proposes alternative strategies to control these two EV modes with the objective of enhancing the management of the power system. Moreover, power system must ensure the trips of EVs that will be connected to the electric network. The EV user specifies a certain amount of energy that will be necessary to charge, in order to ensure the distance to travel. The introduction of EVs in the power system turns the Energy Resource Management (ERM) under a smart grid environment, into a complex problem that can take several minutes or hours to reach the optimal solution. Adequate optimization techniques are required to accommodate this kind of complexity while solving the ERM problem in a reasonable execution time. This thesis presents a tool that solves the ERM considering the intensive use of EVs in the smart grid context. The objective is to obtain the minimum cost of ERM considering: the operation cost of DG, the cost of the energy acquired to external suppliers, the EV users payments and remuneration and penalty costs. This tool is directed to VPPs that manage specific network areas, where a high penetration level of EVs is expected to be connected in these areas. The ERM is solved using two methodologies: the adaptation of a deterministic technique proposed in a previous work, and the adaptation of the Simulated Annealing (SA) technique. With the purpose of improving the SA performance for this case, three heuristics are additionally proposed, taking advantage on the particularities and specificities of an ERM with these characteristics. A set of case studies are presented in this thesis, considering a 32 bus distribution network and up to 3000 EVs. The first case study solves the scheduling without considering EVs, to be used as a reference case for comparisons with the proposed approaches. The second case study evaluates the complexity of the ERM with the integration of EVs. The third case study evaluates the performance of scheduling with different control modes for EVs. These control modes, combined with the proposed SA approach and with the developed heuristics, aim at improving the quality of the ERM, while reducing drastically its execution time. The proposed control modes are: uncoordinated charging, smart charging and V2G capability. The fourth and final case study presents the ERM approach applied to consecutive days.
Resumo:
Com o presente documento pretende-se abordar e identificar os diferentes factores que influenciam directamente a produção e execução de uma escavação subterrânea, com especial relevo sobre a influência exercida pela geotecnia do maciço intersectado. Inicialmente são focados os principais aspectos a ter em conta na caracterização geotécnica de um maciço, seguindo-se uma introdução a diferentes métodos de escavação actuais e metodologias de suporte de uma obra subterrânea, com particular realce para os utilizados em maciços brandos. Depois de tratados estes conceitos, é apresentada uma obra subterrânea em execução que foi acompanhada durante 4 meses para efeitos de desenvolvimento deste estudo. Assim, são abordados neste documento diferentes aspectos construtivos, no que diz respeito à mão-de-obra utilizada, metodologias e técnicas aplicadas, redes técnicas auxiliares instaladas, produções e rendimentos verificados. De seguida e de modo a atestar a importância da caracterização geotécnica ao longo da obra, foi feito um estudo do maciço intersectado, relativamente às descontinuidades que o intersectam, litologia, alteração, e resistência à compressão. Para este último parâmetro foram utilizadas técnicas distintas mas complementares, nomeadamente o ensaio de carga pontual (em laboratório), e o esclerómetro portátil (in situ). Por último, tendo em conta os parâmetros e características presentes e as implicações que uma obra do género acarreta, são propostas de modo sucinto, técnicas alternativas de escavação do maciço cuja viabilidade de implementação seja possível no contexto em questão.
Resumo:
Electricity markets are complex environments with very particular characteristics. A critical issue regarding these specific characteristics concerns the constant changes they are subject to. This is a result of the electricity markets’ restructuring, which was performed so that the competitiveness could be increased, but it also had exponential implications in the increase of the complexity and unpredictability in those markets scope. The constant growth in markets unpredictability resulted in an amplified need for market intervenient entities in foreseeing market behaviour. The need for understanding the market mechanisms and how the involved players’ interaction affects the outcomes of the markets, contributed to the growth of usage of simulation tools. Multi-agent based software is particularly well fitted to analyze dynamic and adaptive systems with complex interactions among its constituents, such as electricity markets. This dissertation presents ALBidS – Adaptive Learning strategic Bidding System, a multiagent system created to provide decision support to market negotiating players. This system is integrated with the MASCEM electricity market simulator, so that its advantage in supporting a market player can be tested using cases based on real markets’ data. ALBidS considers several different methodologies based on very distinct approaches, to provide alternative suggestions of which are the best actions for the supported player to perform. The approach chosen as the players’ actual action is selected by the employment of reinforcement learning algorithms, which for each different situation, simulation circumstances and context, decides which proposed action is the one with higher possibility of achieving the most success. Some of the considered approaches are supported by a mechanism that creates profiles of competitor players. These profiles are built accordingly to their observed past actions and reactions when faced with specific situations, such as success and failure. The system’s context awareness and simulation circumstances analysis, both in terms of results performance and execution time adaptation, are complementary mechanisms, which endow ALBidS with further adaptation and learning capabilities.
Resumo:
A navegação de veículos autónomos em ambientes não estruturados continua a ser um problema em aberto. A complexidade do mundo real ainda é um desafio. A difícil caracterização do relevo irregular, dos objectos dinâmicos e pouco distintos(e a inexistência de referências de localização) tem sido alvo de estudo e do desenvolvimento de vários métodos que permitam de uma forma eficiente, e em tempo real, modelizar o espaço tridimensional. O trabalho realizado ao longo desta dissertação insere-se na estratégia do Laboratório de Sistemas Autónomos (LSA) na pesquisa e desenvolvimento de sistemas sensoriais que possibilitem o aumento da capacidade de percepção das plataformas robóticas. O desenvolvimento de um sistema de modelização tridimensional visa acrescentar aos projectos LINCE (Land INtelligent Cooperative Explorer) e TIGRE (Terrestrial Intelligent General proposed Robot Explorer) maior autonomia e capacidade de exploração e mapeamento. Apresentamos alguns sensores utilizados para a aquisição de modelos tridimensionais, bem como alguns dos métodos mais utilizados para o processo de mapeamento, e a sua aplicação em plataformas robóticas. Ao longo desta dissertação são apresentadas e validadas técnicas que permitem a obtenção de modelos tridimensionais. É abordado o problema de analisar a cor e geometria dos objectos, e da criação de modelos realistas que os representam. Desenvolvemos um sistema que nos permite a obtenção de dados volumétricos tridimensionais, a partir de múltiplas leituras de um Laser Range Finder bidimensional de médio alcance. Aos conjuntos de dados resultantes associamos numa nuvem de pontos coerente e referenciada. Foram desenvolvidas e implementadas técnicas de segmentação que permitem inspeccionar uma nuvem de pontos e classifica-la quanto às suas características geométricas, bem como ao tipo de estruturas que representem. São apresentadas algumas técnicas para a criação de Mapas de Elevação Digital, tendo sido desenvolvida um novo método que tira partido da segmentação efectuada
Resumo:
Com a expansão da Televisão Digital e a convergência entre os meios de difusão convencionais e a televisão sobre IP, o número de canais disponíveis tem aumentado de forma gradual colocando o espectador numa situação de difícil escolha quanto ao programa a visionar. Sobrecarregados com uma grande quantidade de programas e informação associada, muitos espectadores desistem sistematicamente de ver um programa e tendem a efectuar zapping entre diversos canais ou a assistir sempre aos mesmos programas ou canais. Diante deste problema de sobrecarga de informação, os sistemas de recomendação apresentam-se como uma solução. Nesta tese pretende estudar-se algumas das soluções existentes dos sistemas de recomendação de televisão e desenvolver uma aplicação que permita a recomendação de um conjunto de programas que representem potencial interesse ao espectador. São abordados os principais conceitos da área dos algoritmos de recomendação e apresentados alguns dos sistemas de recomendação de programas de televisão desenvolvidos até à data. Para realizar as recomendações foram desenvolvidos dois algoritmos baseados respectivamente em técnicas de filtragem colaborativa e de filtragem de conteúdo. Estes algoritmos permitem através do cálculo da similaridade entre itens ou utilizadores realizar a predição da classificação que um utilizador atribuiria a um determinado item (programa de televisão, filme, etc.). Desta forma é possível avaliar o nível de potencial interesse que o utilizador terá em relação ao respectivo item. Os conjuntos de dados que descrevem as características dos programas (título, género, actores, etc.) são armazenados de acordo com a norma TV-Anytime. Esta norma de descrição de conteúdo multimédia apresenta a vantagem de ser especificamente vocacionada para conteúdo audiovisual e está disponível livremente. O conjunto de recomendações obtidas é apresentado ao utilizador através da interacção com uma aplicação Web que permite a integração de todos os componentes do sistema. Para validação do trabalho foi considerado um dataset de teste designado de htrec2011-movielens-2k e cujo conteúdo corresponde a um conjunto de filmes classificados por diversos utilizadores num ambiente real. Este conjunto de filmes possui, para além da classificações atribuídas pelos utilizadores, um conjunto de dados que descrevem o género, directores, realizadores e país de origem. Para validação final do trabalho foram realizados diversos testes dos quais o mais relevante correspondeu à avaliação da distância entre predições e valores reais e cujo objectivo é classificar a capacidade dos algoritmos desenvolvidos preverem com precisão as classificações que os utilizadores atribuiriam aos itens analisados.
Resumo:
A implementação e venda de robôs autónomos tem sido um sector que nos últimos anos tem adquirido cada vez mais quota no mercado, nomeadamente no sector militar, agrícola e da vigilância. Como tal, tem sido também de grande importância a capacidade de implementar e testar robôs por parte das entidades que os fabricam. Uma das formas que tem garantido o sucesso do desenvolvimento de robôs é a simulação prévia dos mesmos antes que estes passem a fase de produção. Sendo assim, o LSA como entidade de desenvolvimento de robôs autónomos, tem necessidade de adquirir um sistema que simule os robôs em desenvolvimento. O trabalho desta tese consiste na realização de um sistema que simule robôs autónomos terrestres de forma que se possa observar o comportamento da cinemática, dinânica e hardware dos robôs em ambiente 3D. Esta aplicação de simulação pode mais tarde ser utilizada pelo laboratório para testar missões, validar alterações de estrutura, sensores, etc. Para além disso, com recurso ao simulador Player/Stage/Gazebo testar o robô LINCE e implementar algoritmos de controlo para o mesmo. Os algoritmos de controlo implementados baseiam-se em primitivas de controlo básico para serem utilizadas pelo sistema de navegação e gerar trajectórias complexas. Os algoritmos desenvolvidos nesta tese baseiam-se nas equações cinemáticas do veículo estudado. Estes algoritmos depois de testados no simulador, poderão ser colocados no Hardware do robô. Desta forma consegue-se desenvolver algoritmos para determinado robô sem que este esteja operacional.
Resumo:
Aquando da definição de um layout por fluxo de produto, ou linha de produção, é necessário proceder-se à melhor selecção de combinações de tarefas a serem executadas em cada estação / posto de trabalho para que o trabalho seja executado numa sequência exequível e sejam necessárias quantidades de tempo aproximadamente iguais em cada estação / posto de trabalho. Este processo é chamado de balanceamento da linha de produção. Verifica-se que as estações de trabalho e equipamentos podem ser combinados de muitas maneiras diferentes; daí que a necessidade de efectuar o balanceamento das linhas de produção implique a distribuição de actividades sequenciais por postos de trabalho de modo a permitir uma elevada utilização de trabalho e de equipamentos e a minimizar o tempo de vazio. Os problemas de balanceamento de linhas são tipicamente problemas complexos de tratar, devido ao elevado número de combinações possíveis. Entre os métodos utilizados para resolver estes problemas encontram-se métodos de tentativa e erro, métodos heurísticos, métodos computacionais de avaliação de diferentes opções até se encontrar uma boa solução e métodos de optimização. O objectivo deste trabalho passou pelo desenvolvimento de uma ferramenta computacional para efectuar o balanceamento de linhas de produção recorrendo a algoritmos genéticos. Foi desenvolvida uma aplicação que implementa dois algoritmos genéticos, um primeiro que obtém soluções para o problema e um segundo que optimiza essas soluções, associada a uma interface gráfica em C# que permite a inserção do problema e a visualização de resultados. Obtiveram-se resultados exequíveis demonstrando vantagens em relação aos métodos heurísticos, pois é possível obter-se mais do que uma solução. Além disso, para problemas complexos torna-se mais prático o uso da aplicação desenvolvida. No entanto, esta aplicação permite no máximo seis precedências por cada operação e resultados com o máximo de nove estações de trabalho.
Resumo:
A instalação de sistemas de videovigilância, no interior ou exterior, em locais como aeroportos, centros comerciais, escritórios, edifícios estatais, bases militares ou casas privadas tem o intuito de auxiliar na tarefa de monitorização do local contra eventuais intrusos. Com estes sistemas é possível realizar a detecção e o seguimento das pessoas que se encontram no ambiente local, tornando a monitorização mais eficiente. Neste contexto, as imagens típicas (imagem natural e imagem infravermelha) são utilizadas para extrair informação dos objectos detectados e que irão ser seguidos. Contudo, as imagens convencionais são afectadas por condições ambientais adversas como o nível de luminosidade existente no local (luzes muito fortes ou escuridão total), a presença de chuva, de nevoeiro ou de fumo que dificultam a tarefa de monitorização das pessoas. Deste modo, tornou‐se necessário realizar estudos e apresentar soluções que aumentem a eficácia dos sistemas de videovigilância quando sujeitos a condições ambientais adversas, ou seja, em ambientes não controlados, sendo uma das soluções a utilização de imagens termográficas nos sistemas de videovigilância. Neste documento são apresentadas algumas das características das câmaras e imagens termográficas, assim como uma caracterização de cenários de vigilância. Em seguida, são apresentados resultados provenientes de um algoritmo que permite realizar a segmentação de pessoas utilizando imagens termográficas. O maior foco desta dissertação foi na análise dos modelos de descrição (Histograma de Cor, HOG, SIFT, SURF) para determinar o desempenho dos modelos em três casos: distinguir entre uma pessoa e um carro; distinguir entre duas pessoas distintas e determinar que é a mesma pessoa ao longo de uma sequência. De uma forma sucinta pretendeu‐se, com este estudo, contribuir para uma melhoria dos algoritmos de detecção e seguimento de objectos em sequências de vídeo de imagens termográficas. No final, através de uma análise dos resultados provenientes dos modelos de descrição, serão retiradas conclusões que servirão de indicação sobre qual o modelo que melhor permite discriminar entre objectos nas imagens termográficas.
Resumo:
Sin lugar a dudas, el inglés se ha convertido en las últimas décadas en la lingua franca de la comunidad científica internacional, desplazando incluso a otras lenguas que tuvieron una gran importancia en otras épocas, caso del francés o del alemán. El lenguaje científico español también ha sucumbido a esta entrada masiva del inglés en las distintas disciplinas científico-técnicas, y presenta desde hace unas décadas ciertas características que no son propias de las reglas gramaticales del español y que son el fruto de una contaminación lingüística derivada de la penetración del inglés. El objetivo del presente artículo es analizar las características del lenguaje médico tal y como lo podemos encontrar en las publicaciones españolas actuales. Para ello, el artículo se divide en tres apartados: en primer lugar, haremos un breve recorrido por la historia del lenguaje médico como punto de partida para comprender la evolución de este lenguaje. En segundo lugar, analizaremos las características principales dentro de los niveles léxicosemántico, morfosintáctico y fonético-fonológico del lenguaje médico español y veremos la influencia que ha tenido el inglés en el proceso de evolución del mismo. En tercer lugar, examinaremos los procedimientos de creación y formación de términos médicos y cómo afectan al desarrollo lingüístico de la terminología.
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
A Língua Gestual Portuguesa (LGP) foi, em 1997, reconhecida como a língua oficial dos surdos portugueses. Os trabalhos pioneiros de William Stokoe, na década de 60, sustentaram a evidência de que os surdos possuem a sua própria língua, que adquirem de forma natural sempre que expostos a um ambiente linguístico que lhes permita a sua aquisição e desenvolvimento plenos. A LGP é uma língua natural e apresenta uma complexidade estrutural equivalente à das línguas orais, sendo possível distinguir elementos descritivos da mão, tais como a configuração, o local de articulação, o movimento, a orientação e ainda os componentes não-manuais. A LGP desenvolve-se num ―espaço sintáctico‖, espaço em frente do gestuante, onde se organizam as relações morfológicas e sintácticas. Neste artigo, pretendemos descrever e classificar alguns processos de polissemia nominal que detectámos em LGP. Partindo duma abordagem bottom-up, com base num corpus de cem gestos nominais, observámos os processos polissémicos presentes. Tendo como referência um enquadramento teórico-conceptual de cariz cognitivista da noção de polissemia, detectámos processos metonímicos, de denominação através de características estereotípicas de um determinado referente e de possível contacto linguístico entre a Língua Gestual Portuguesa e a Língua Portuguesa Escrita. Também foram encontrados processos de polissemia que parecem assentar numa sinonímia visual e cuja polissemia se reveste de uma identificação sinónima, através de uma imagem comum, entre um referente e outro. Salientaremos ainda que este trabalho se considera exploratório, relativamente, aos processos de polissemia em LGP, sendo nossa intenção continuar a estudar com mais dados este fenómeno.
Resumo:
Os sistemas de propulsão baseados em motores síncronos de ímanes permanentes (MSIP) têm sido considerados como a opção mais promissora para os veículos híbridos (VH) e elétricos (VE). A situação atual relativa às reservas e custos dos elementos de terras-raras poderá trazer algumas alterações nesta tendência; a opção por motores que prescindem destes elementos poderá trazer um novo estímulo à aplicação dos motores de indução neste domínio. Este artigo procura apresentar uma análise comparativa entre MSIP e motores de indução (MI) num espectro alargado de velocidades de funcionamento, com especial destaque para os seus desempenhos energéticos. Começa-se por abordar as características gerais de comportamento exigidas aos VE, que definem os múltiplos cenários de funcionamento que poderão ser impostos aos motores. Em seguida, são focadas as principais características de ambas as máquinas, procurando realçar as vantagens e desvantagens mais relevantes, no contexto dos VE. Com base nos regimes de funcionamento a que serão submetidos, analisam-se as diferenças dos rendimentos naturais de ambos os motores. Para os MI é também abordado o importante tema dos algoritmos de minimização de perdas, com vista ao aumento dos rendimentos em regimes de carga onde o desempenho destas máquinas é inferior.
Resumo:
Os impactos ambientais e económicos dos combustíveis fósseis têm uma forte proveniência do sector dos transportes. Este facto tem motivado, nas últimas décadas um aumento do desenvolvimento dos veículos eléctricos, principalmente, das soluções híbridas. Tais desenvolvimentos resultam da integração de diversos domínios da engenharia, sendo de destacar os novos materiais e concepções de motores eléctricos, a electrónica de potência, os sistemas de controlo e os sistemas de armazenamento de energia. Neste artigo procura‐se apresentar as principais características dos sistemas de propulsão eléctrica actuais. Começa‐se fazer uma comparação entre os veículos eléctricos e os convencionais, baseados nos motores térmicos de combustão interna. Pela sua importância, é feita uma referência sucinta aos sistemas de armazenamento de energia. São comparadas as características da propulsão eléctrica e térmica, sob a perspectiva das exigências dos sistemas de tracção. São referidos os principais tipos de sistemas de propulsão eléctrica (motor, conversor e controlador), vantagens e desvantagens relativas. Por último, uma abordagem acerca das tendências futuras dos veículos eléctricos.