124 resultados para Creating diversities
Resumo:
Currently, power systems (PS) already accommodate a substantial penetration of distributed generation (DG) and operate in competitive environments. In the future, as the result of the liberalisation and political regulations, PS will have to deal with large-scale integration of DG and other distributed energy resources (DER), such as storage and provide market agents to ensure a flexible and secure operation. This cannot be done with the traditional PS operational tools used today like the quite restricted information systems Supervisory Control and Data Acquisition (SCADA) [1]. The trend to use the local generation in the active operation of the power system requires new solutions for data management system. The relevant standards have been developed separately in the last few years so there is a need to unify them in order to receive a common and interoperable solution. For the distribution operation the CIM models described in the IEC 61968/70 are especially relevant. In Europe dispersed and renewable energy resources (D&RER) are mostly operated without remote control mechanisms and feed the maximal amount of available power into the grid. To improve the network operation performance the idea of virtual power plants (VPP) will become a reality. In the future power generation of D&RER will be scheduled with a high accuracy. In order to realize VPP decentralized energy management, communication facilities are needed that have standardized interfaces and protocols. IEC 61850 is suitable to serve as a general standard for all communication tasks in power systems [2]. The paper deals with international activities and experiences in the implementation of a new data management and communication concept in the distribution system. The difficulties in the coordination of the inconsistent developed in parallel communication and data management standards - are first addressed in the paper. The upcoming unification work taking into account the growing role of D&RER in the PS is shown. It is possible to overcome the lag in current practical experiences using new tools for creating and maintenance the CIM data and simulation of the IEC 61850 protocol – the prototype of which is presented in the paper –. The origin and the accuracy of the data requirements depend on the data use (e.g. operation or planning) so some remarks concerning the definition of the digital interface incorporated in the merging unit idea from the power utility point of view are presented in the paper too. To summarize some required future work has been identified.
Resumo:
Proteins are biochemical entities consisting of one or more blocks typically folded in a 3D pattern. Each block (a polypeptide) is a single linear sequence of amino acids that are biochemically bonded together. The amino acid sequence in a protein is defined by the sequence of a gene or several genes encoded in the DNA-based genetic code. This genetic code typically uses twenty amino acids, but in certain organisms the genetic code can also include two other amino acids. After linking the amino acids during protein synthesis, each amino acid becomes a residue in a protein, which is then chemically modified, ultimately changing and defining the protein function. In this study, the authors analyze the amino acid sequence using alignment-free methods, aiming to identify structural patterns in sets of proteins and in the proteome, without any other previous assumptions. The paper starts by analyzing amino acid sequence data by means of histograms using fixed length amino acid words (tuples). After creating the initial relative frequency histograms, they are transformed and processed in order to generate quantitative results for information extraction and graphical visualization. Selected samples from two reference datasets are used, and results reveal that the proposed method is able to generate relevant outputs in accordance with current scientific knowledge in domains like protein sequence/proteome analysis.
Resumo:
Involving groups in important management processes such as decision making has several advantages. By discussing and combining ideas, counter ideas, critical opinions, identified constraints, and alternatives, a group of individuals can test potentially better solutions, sometimes in the form of new products, services, and plans. In the past few decades, operations research, AI, and computer science have had tremendous success creating software systems that can achieve optimal solutions, even for complex problems. The only drawback is that people don’t always agree with these solutions. Sometimes this dissatisfaction is due to an incorrect parameterization of the problem. Nevertheless, the reasons people don’t like a solution might not be quantifiable, because those reasons are often based on aspects such as emotion, mood, and personality. At the same time, monolithic individual decisionsupport systems centered on optimizing solutions are being replaced by collaborative systems and group decision-support systems (GDSSs) that focus more on establishing connections between people in organizations. These systems follow a kind of social paradigm. Combining both optimization- and socialcentered approaches is a topic of current research. However, even if such a hybrid approach can be developed, it will still miss an essential point: the emotional nature of group participants in decision-making tasks. We’ve developed a context-aware emotion based model to design intelligent agents for group decision-making processes. To evaluate this model, we’ve incorporated it in an agent-based simulator called ABS4GD (Agent-Based Simulation for Group Decision), which we developed. This multiagent simulator considers emotion- and argument based factors while supporting group decision-making processes. Experiments show that agents endowed with emotional awareness achieve agreements more quickly than those without such awareness. Hence, participant agents that integrate emotional factors in their judgments can be more successful because, in exchanging arguments with other agents, they consider the emotional nature of group decision making.
Resumo:
The idea behind creating this special issue on real world applications of intelligent tutoring systems was to bring together in a single publication some of the most important examples of success in the use of ITS technology. This will serve as a reference to all researchers working in the area. It will also be an important resource for the industry, showing the maturity of ITS technology and creating an atmosphere for funding new ITS projects. Simultaneously, it will be valuable to academic groups, motivating students for new ideas of ITS and promoting new academic research work in the area.
Resumo:
The development of economical relations increases the interaction between organizations and stakeholders. It is no more acceptable to manage an organization under a transactional perspective where suppliers had a fundamental role. Nowadays organizations are being managed under a relational perspective where relations and relationship management in general have consequences in identity management (Hakansson e Snehota, 1989, 1995). A correct perception and management of identity is necessary to achieve distinctiveness in the competitive environment. This way, identity is influenced by relations with stakeholders in general and particularly with competitors. The ICIG concept states that identity is related with the values of the organization and it helps creating distinctiveness in the competitive environment (Van Riel, Balmer, 1997); Baker and Balmer (1997) state that identity is what the organization is; Suvatjis and de Chernatony (2005) refer that expressing identity is a dynamic process that evolves the use of a management model to face context changes; Kapferer (1991) states that brand identity is the project, the self conception of the brand. After reviewing and confronting literature under the plethora of identities’ concepts and perspectives (He, Balmer, 2007) one can’t find an integrative answer with all the elements that contribute to identity of organizations. The authors are strongly interested to contribute to the elimination of this limitation and to answer to strategic management needs. In a marketing context one can find: - the corporate identity approach that is focused in the distinctive attributes of an organization (Abratt, Balmer, Marwick e Fill, Stuart, Balmer and Gray, Alessandri, Suvatjis and de Chernatony) - the brand identity approach (related with the application of corporate identity studies to brands) - Kapferer, Semprini, Aaker, de Chernatony). Kapferer (1991), one of the most prolific authors in this field was the first author to integrate identity in a brand concept. In his view, identity is an emission concept. This idea is shared also by Aaker (1996). Yet, identity has to be managed in a competitive environment which is constantly changing. After reviewing and confronting literature, authors select concepts that are generally accepted by the investigators in order to design a model to analyze and manage identity: - corporate identity models: personality, image/reputation, culture, philosophy, mission, strategy, structure, communication - some of these concepts derive from identity models and others from identity management models; - brand identity models – Kapferer (1991, 2008) identity prism, witch is basis of literature in this field: culture, physical facet, personality, relationship (between brand and consumer), reflected consumer, consumers` self-concept. After discussion authors decide to include other concept in line with other authors` view: country of origin (Aaker, 1996). A discussion eliminates the twin concepts and the final selection is as follows: personality, image/reputation, culture (including philosophy and mission), strategy, structure, communication, culture, physical facet, relationship (between brand and consumer), reflected consumer, consumers` self-concept and according to authors` reflections “relationships” deriving from competitors` actions in competitive environment. Competitors’ actions and decisions have a stronger influence in the organizations` positioning than any other stakeholder as stated before. This is a work in progress towards a new model in identity analysis and management so an exploratory study will follow inquiring experts on identity in order to evaluate these concepts and correct the theoretical perspectives.
Resumo:
A reforma dos cuidados de saúde primários surgiu, em 2005, com o objectivo principal de criar um novo modelo de organização dos cuidados de saúde primários mais próximo dos cidadãos e mais eficiente, tendo surgido, neste contexto, as Unidades de Saúde Familiares (USF) e, mais recentemente, as Unidades de Cuidados de Saúde Personalizados (UCSP). Importa agora determinar a avaliação que os utentes destas unidades fazem dos cuidados que lhes são prestados. O presente estudo pretende avaliar a satisfação dos utentes das UCSP e USF do Agrupamento de Centros de Saúde (ACES)Tâmega I- Baixo Tâmega e identificar os factores que a influenciam, tendo sido utilizado para tal uma versão adaptada e validada do questionário Europep. Os resultados demonstram queos utentes do ACES Tâmega I - Baixo Tâmega avaliam favoravelmente os cuidados de saúde. As dimensões com maior satisfação são a “relação e comunicação”, com destaque para o tempo dedicado pelo pessoal de enfermagem, os“recursos humanos”, com destaque para a competência, cortesia e carinho do pessoal de enfermagem e as“instalações”. Os níveis mais baixos de satisfação, embora positivos, são relativos à organização dos serviços e continuidade e cooperação. O tempo de espera na sala de espera, referente à organização dos serviços, é,entre todos, o aspecto com pior avaliação distanciando-se significativamente de todos os outros itens avaliados. Também na análise dos comentários relativos a surpresas agradáveis e desagradáveis encontradas nas unidades verifica-se que os aspectos organizacionais são os que mais desagradam os utentes e os relacionais os que mais agradam. Verifica-se que a idade, estado civil, escolaridade, utilização da unidade de saúde e tipo de unidade determinam diferenças na satisfação. Os utentes das USF recomendam mais a sua unidade de saúde e encontram-semais satisfeitos em todas as dimensões da satisfação avaliadas, sendoesta discrepância mais acentuada a nível da organização dos serviços e resposta às necessidades.
Resumo:
A criação de valor no mercado da saúde enquanto factor diferenciador para a negociação de preços e competitividade em contexto de crise mundial Numa altura em que o sector da saúde é apontado como uma área crítica de custos, torna-se cada vez mais difícil orientar a contratação em saúde baseada em valor para os pacientes, ou seja, pelos resultados obtidos e não pelo volume de cuidados prestados. Pretendeu-se estudar a criação de valor no mercado da saúde enquanto factor diferenciador para a negociação de preços e competitividade em contexto de crise económica. Procedeu-se à comparação dos resultados operacionais de uma empresa enquanto prestadora de serviços de Oxigenoterapia ao domicílio, tendo por base duas estratégias diferentes: redução directa de preços ou manutenção de preços com criação de valor para o cliente. As propostas foram posteriormente apresentadas para avaliação e votação on-line por um grupo 8 gestores hospitalares. A proposta baseada em valor (Nº2) apresenta melhores resultados operacionais (41%) embora apresente maiores custos. No que se refere à votação das propostas e tendo em conta o cenário apresentado, metade dos gestores optaram pela proposta Nº1 (N=4) e outra metade pela proposta Nº2 (N=4). Contudo, a maioria dos gestores (N=7) consideraram a proposta Nº1 a mais competitiva em contexto de competição com mais fornecedores. Conclui-se que numa negociação de contratos de cuidados de saúde, uma proposta baseada em valor, pode garantir a manutenção dos preços. Todavia, mantendo-se uma situação económica de recessão e num cenário competitivo de vários fornecedores este tipo de propostas pode não eleita, pelo facto de aparentemente não representar ganhos imediatos para a instituição contratante.
Resumo:
Mestrado em Engenharia Informática. Sistemas Gráficos e Multimédia
Resumo:
Actualmente, a sociedade depara-se com um enorme desafio: a gestão dos resíduos sólidos urbanos. A sua produção tem vindo a aumentar devido à intensificação das actividades humanas nas últimas décadas. A criação de um sistema de gestão dos resíduos é fundamental para definir prioridades nas acções e metas para que haja uma prevenção na produção de resíduos. Os resíduos sólidos urbanos quando dispostos de forma inadequada podem provocar graves impactos ambientais, tendo sido neste trabalho demonstrado que através de uma gestão eficiente destes é possível aproveitar o potencial energético do biogás e consequentemente diminuir o consumo de combustíveis fósseis reduzindo o impacto ambiental. Os aterros sanitários devem funcionar como a ultima etapa do sistema de tratamento dos resíduos sólidos urbanos e são uma alternativa a ter em conta se forem tomadas todas as medidas necessárias. Estima-se que os aterros sejam responsáveis pela produção de 6-20% do metano existente e que contribuam com 3-4% da produção anual de gases efeito de estufa provenientes de actividades antropogénicas1. É, portanto, fundamental proceder a uma impermeabilização do solo e à criação de condições para recolha do biogás produzido durante a decomposição dos resíduos. Foi estimada a produção de biogás, de acordo com o modelo “LandGEM”, no entanto comparando esta produção com a produção medida pelo explorador, constatou-se uma diferença significativa que pode ser justificada pelo: modo de funcionamento do aterro (longos períodos de paragem); desvio dos resíduos rapidamente biodegradáveis para valorização; a existência de uma percentagem superior ao normal de oxigénio no biogás; a utilização de escórias e cinzas, e a correspondente redução da humidade devido ao compactamento exercido sobre os resíduos durante a sua deposição. Visto tratar-se de um estudo de viabilidade económica da valorização do biogás, foram propostos três cenários para a valorização do biogás. O 1º cenário contempla a instalação de um sistema gerador de energia para comercialização junto da Rede Eléctrica Nacional. O 2º Cenário contempla a instalação de um sistema alternativo de alimentação à caldeira da central de valorização energética de forma a substituir o combustível utilizado actualmente. E o 3º Cenário vem de encontro com os resultados observados actualmente onde se verifica uma reduzida produção/recolha de biogás no aterro. Assim é proposto um sistema gerador de energia que garanta o auto-consumo da exploração do aterro (26 MWh/ano). Qualquer um dos cenários apresenta uma VAL negativa o que leva a concluir que não são viáveis. No entanto, através da análise de sensibilidade, verificamos que estes são claramente afectados por factores como o benefício e o investimento anual, concluindo-se que com alterações nos factores de cálculo, como por exemplo, um aumento no consumo de combustível auxiliar da caldeira (2º cenário), ou com um aumento da factura eléctrica (3º cenário), ou com o aumento do tempo de retorno do investimento inicial(1º cenário), os projectos podem-se tornar viáveis. Por fim importa referir que independentemente da valorização é fundamental continuar a eliminar a máxima quantidade de metano produzida para tentar diminuir o impacto que este tem sobre o ambiente.
Resumo:
A depressão é uma das doenças de foro psiquiátrico que mais prevalece na nossa sociedade, subsistindo evidências epidemiológicas que indicam um aumento substancial da sua incidência nos últimos anos. Esta evidência é consubstanciada pelo aumento significativo do consumo de antidepressivos em Portugal. Este cenário pressupõe a necessidade de uma metodologia que permita analisar, com rigor e numa perspectiva de rotina, os antidepressivos que podem ser encontrados em amostras de sangue. No contexto do Serviço de Toxicologia Forense do Instituto Nacional de Medicina Legal, Delegação do Norte, torna-se necessário o desenvolvimento de uma metodologia analítica para a determinação simultânea de 15 antidepressivos em sangue total e a sua validação relativamente a vários parâmetros analíticos. Os antidepressivos considerados foram Amitriptilina, Citalopram, Clomipramina, N-Desmetilclomipramina, Dotiepina, Fluoxetina, Imipramina, Maprotilina, Mianserina, Mirtazapina, Nortriptilina, Paroxetina, Sertralina, Trimipramina e Venlafaxina. A técnica utilizada para este efeito foi o GC/MS/MS, aplicando um procedimento extractivo prévio apropriado, baseado em procedimentos convencionais de extracção em fase sólida. A escolha desta técnica teve por base a possibilidade de identificar inequivocamente os compostos presentes na amostra, independentemente da complexidade da matriz, e de originar metodologias com uma sensibilidade elevada e com limites de detecção muito baixos. Os parâmetros analíticos considerados para validação da metodologia estabelecida foram selectividade/especificidade e capacidade de identificação; limites de detecção e de quantificação; linearidade e gama de trabalho; eficiência de extracção; arrastamento; exactidão (precisão, veracidade e incerteza de medição) e robustez. Com excepção da exactidão, um parâmetro que carece ainda de estudos complementares, todos os parâmetros estudados foram validados de acordo com os requisitos internos do Serviço. De uma forma geral, os resultados obtidos com o método desenvolvido revelaram-se selectivos e apresentaram respostas analíticas tanto para concentrações de antidepressivos em níveis terapêuticos como para níveis letais destas drogas. Os procedimentos extractivos revelaram-se eficazes e não foram verificados fenómenos de arrastamento em concentrações mais elevadas. O método foi ainda considerado robusto.
Resumo:
Esta tese pretende fazer um estudo sobre a influência que a evolução tecnológica tem, de forma direta e indireta, sobre a educação em turismo. Os fatores indiretos (fornecedores turísticos, agências…) acabam por ter o maior peso devido às constantes evoluções que sofrem para poderem dar um serviço cada vez melhor aos seus clientes. A ideia surgiu da necessidade de elaboração de um modelo para a reformulação do portal do Observatório Nacional de Educação em Turismo (ONET), cujo planeamento e parte da implementação decorreu numa parte mais prática da tese. Os pontos principais da reformulação do portal passaram pela modificação do seu design, elaboração de um repositório de objetos de aprendizagem e de uma rede social. A propósito do repositório, decidiu-se elaborar também um objeto de aprendizagem sobre o tema “A História do Turismo no Mundo”. Toda esta evolução tecnológica, que se tem verificado nos últimos anos, veio agilizar muitos procedimentos, sendo necessários profissionais qualificados. É aqui que entra o papel das escolas. Têm de se adaptar em termos de utilização das mais recentes tecnologias, nomeadamente software. Algumas empresas produtoras de software desenvolvem também simuladores que são utilizados nas escolas para um ensino semelhante ao que será a futura vida profissional.
Resumo:
A Realidade Aumentada veio alterar a percepção que o ser humano tem do mundo real. A expansão da nossa realidade à Realidade Virtual possibilita a criação de novas experiencias, cuja aplicabilidade é já tida como natural em diversas situações. No entanto, potenciar este tipo de interacção pode ser um processo complexo, quer por limitações tecnológicas, quer pela gestão dos recursos envolvidos. O desenvolvimento de projectos com realidade aumentada para fins comerciais passa assim muitas vezes pela optimização dos recursos utilizados tendo em consideração as limitações das tecnologias envolventes (sistemas de detecção de movimento e voz, detecção de padrões, GPS, análise de imagens, sensores biométricos, etc.). Com a vulgarização e aceitação das técnicas de Realidade Aumentada em muitas áreas (medicina, educação, lazer, etc.), torna-se também necessário que estas técnicas sejam transversais aos dispositivos que utilizamos diariamente (computadores, tablets, telemóveis etc.). Um dominador comum entre estes dispositivos é a internet uma vez que as aplicações online conseguem abarcar um maior número de pessoas. O objectivo deste projecto era o de criar uma aplicação web com técnicas de Realidade Aumentada e cujos conteúdos fossem geridos pelos utilizadores. O processo de investigação e desenvolvimento deste trabalho passou assim por uma fase fundamental de prototipagem para seleccionar as tecnologias que melhor se enquadravam no tipo de arquitectura pretendida para a aplicação e nas ferramentas de desenvolvimento utilizadas pela empresa onde o projecto foi desenvolvido. A aplicação final é composta por um FrontOffice, responsável por mostrar e interpretar as aplicações criadas e possibilitar a integração com outras aplicações, e um BackOffice que possibilita aos utilizadores, sem conhecimentos de programação, criar novas aplicações de realidade aumentada e gerir os conteúdos multimédia utilizados. A aplicação desenvolvida pode servir de base para outras aplicações e ser reutilizável noutros âmbitos, sempre com o objectivo de reduzir custos de desenvolvimento e de gestão de conteúdos, proporcionando assim a implementação de uma Framework que permite a gestão de conteúdos em diferentes áreas (medicina, educação, lazer, etc.), onde os utilizadores podem criar as suas próprias aplicações, jogos e ferramentas de trabalho. No decorrer do projecto, a aplicação foi validada por especialistas garantindo o cumprimento dos objectivos propostos.
Resumo:
Ao longo dos últimos anos tem-se verificado um desenvolvimento significativo em soluções Internet Protocol Television (IPTV), com vista a ser implementadas em diversos sectores, incluindo o mercado hoteleiro. O presente trabalho desenvolveu-se em torno de um produto específico ligado a esta área, o sistema de entretenimento NiVo. Este produto foi criado pela Nonius Software, empresa associada ao ramo das telecomunicações, que continua a expandi-lo, conferindo-lhe novas características e melhoramentos. O objectivo principal do projecto consiste no desenvolvimento de uma aplicação simuladora dos temas gráficos do sistema NiVo, com a finalidade de facilitar o processo de criação dos mesmos. Esta aplicação pretende ter uma apresentação e interactividade o mais próxima possível do sistema real, permitindo realizar o teste/validação de um tema, sem a necessidade de utilização de equipamento que compõe o sistema NiVo. Um segundo objectivo baseia-se no desenvolvimento de uma aplicação de ajuda à composição de temas, evitando que estes sejam desenvolvidos manualmente, sem qualquer tipo de suporte, o que pode resultar em erros. Para o cumprimento dos objectivos estabelecidos, focando-se no desenvolvimento do simulador, utilizou-se a tecnologia Flash, sendo esta muito utilizada para a criação de animações interactivas. Desta forma, a aplicação desenvolvida tira partido das vantagens fornecidas por esta tecnologia.
Resumo:
Neste trabalho propus-me realizar um Sistema de Aquisição de Dados em Tempo Real via Porta Paralela. Para atingir com sucesso este objectivo, foi realizado um levantamento bibliográfico sobre sistemas operativos de tempo real, salientando e exemplificando quais foram marcos mais importantes ao longo da sua evolução. Este levantamento permitiu perceber o porquê da proliferação destes sistemas face aos custos que envolvem, em função da sua aplicação, bem como as dificuldades, científicas e tecnológicas, que os investigadores foram tendo, e que foram ultrapassando com sucesso. Para que Linux se comporte como um sistema de tempo real, é necessário configura-lo e adicionar um patch, como por exemplo o RTAI ou ADEOS. Como existem vários tipos de soluções que permitem aplicar as características inerentes aos sistemas de tempo real ao Linux, foi realizado um estudo, acompanhado de exemplos, sobre o tipo de arquitecturas de kernel mais utilizadas para o fazer. Nos sistemas operativos de tempo real existem determinados serviços, funcionalidades e restrições que os distinguem dos sistemas operativos de uso comum. Tendo em conta o objectivo do trabalho, e apoiado em exemplos, fizemos um pequeno estudo onde descrevemos, entre outros, o funcionamento escalonador, e os conceitos de latência e tempo de resposta. Mostramos que há apenas dois tipos de sistemas de tempo real o ‘hard’ que tem restrições temporais rígidas e o ‘soft’ que engloba as restrições temporais firmes e suaves. As tarefas foram classificadas em função dos tipos de eventos que as despoletam, e evidenciando as suas principais características. O sistema de tempo real eleito para criar o sistema de aquisição de dados via porta paralela foi o RTAI/Linux. Para melhor percebermos o seu comportamento, estudamos os serviços e funções do RTAI. Foi dada especial atenção, aos serviços de comunicação entre tarefas e processos (memória partilhada e FIFOs), aos serviços de escalonamento (tipos de escalonadores e tarefas) e atendimento de interrupções (serviço de rotina de interrupção - ISR). O estudo destes serviços levou às opções tomadas quanto ao método de comunicação entre tarefas e serviços, bem como ao tipo de tarefa a utilizar (esporádica ou periódica). Como neste trabalho, o meio físico de comunicação entre o meio ambiente externo e o hardware utilizado é a porta paralela, também tivemos necessidade de perceber como funciona este interface. Nomeadamente os registos de configuração da porta paralela. Assim, foi possível configura-lo ao nível de hardware (BIOS) e software (módulo do kernel) atendendo aos objectivos do presente trabalho, e optimizando a utilização da porta paralela, nomeadamente, aumentando o número de bits disponíveis para a leitura de dados. No desenvolvimento da tarefa de hard real-time, foram tidas em atenção as várias considerações atrás referenciadas. Foi desenvolvida uma tarefa do tipo esporádica, pois era pretendido, ler dados pela porta paralela apenas quando houvesse necessidade (interrupção), ou seja, quando houvesse dados disponíveis para ler. Desenvolvemos também uma aplicação para permitir visualizar os dados recolhidos via porta paralela. A comunicação entre a tarefa e a aplicação é assegurada através de memória partilhada, pois garantindo a consistência de dados, a comunicação entre processos do Linux e as tarefas de tempo real (RTAI) que correm ao nível do kernel torna-se muito simples. Para puder avaliar o desempenho do sistema desenvolvido, foi criada uma tarefa de soft real-time cujos tempos de resposta foram comparados com os da tarefa de hard real-time. As respostas temporais obtidas através do analisador lógico em conjunto com gráficos elaborados a partir destes dados, mostram e comprovam, os benefícios do sistema de aquisição de dados em tempo real via porta paralela, usando uma tarefa de hard real-time.
Resumo:
O betão é o material de construção feito pelo Homem mais utilizado no mundo. A sua composição é um processo complexo que exige um conhecimento teórico sólido e muita experiência prática, pelo que poucas pessoas estão habilitadas para o fazer e são muito requisitadas. No entanto não existe muita oferta actual de software que contemple alguns dos aspectos importantes da composição do betão, nomeadamente para o contexto europeu. Nesse sentido, foi desenvolvido um sistema de apoio à decisão chamado Betacomp, baseado num sistema pericial, para realizar estudos de composição de betão. Este contempla as normas legais portuguesas e europeias, e a partir da especificação do betão apresenta toda a informação necessária para se produzir um ensaio de betão. A aquisição do conhecimento necessário ao sistema contou com a colaboração de um especialista com longa e comprovada experiência na área da formulação e produção do betão, tendo sido construída uma base de conhecimento baseada em regras de produção no formato drl (Drools Rule Language). O desenvolvimento foi realizado na plataforma Drools.net, em C# e VB.net. O Betacomp suporta os tipos de betão mais comuns, assim como adições e adjuvantes, sendo aplicável numa grande parte dos cenários de obra. Tem a funcionalidade de fornecer explicações sobre as suas decisões ao utilizador, auxiliando a perceber as conclusões atingidas e simultaneamente pode funcionar como uma ferramenta pedagógica. A sua abordagem é bastante pragmática e de certo modo inovadora, tendo em conta parâmetros novos, que habitualmente não são considerados neste tipo de software. Um deles é o nível do controlo de qualidade do produtor de betão, sendo feito um ajuste de compensação à resistência do betão a cumprir, proporcional à qualidade do produtor. No caso dos produtores de betão, permite que indiquem os constituintes que já possuem para os poderem aproveitar (caso não haja impedimentos técnicos) , uma prática muito comum e que permitirá eventualmente uma aceitação maior da aplicação, dado que reflecte a forma habitual de agir nos produtores.