63 resultados para First Building
Resumo:
The recent trends of chip architectures with higher number of heterogeneous cores, and non-uniform memory/non-coherent caches, brings renewed attention to the use of Software Transactional Memory (STM) as a fundamental building block for developing parallel applications. Nevertheless, although STM promises to ease concurrent and parallel software development, it relies on the possibility of aborting conflicting transactions to maintain data consistency, which impacts on the responsiveness and timing guarantees required by embedded real-time systems. In these systems, contention delays must be (efficiently) limited so that the response times of tasks executing transactions are upper-bounded and task sets can be feasibly scheduled. In this paper we assess the use of STM in the development of embedded real-time software, defending that the amount of contention can be reduced if read-only transactions access recent consistent data snapshots, progressing in a wait-free manner. We show how the required number of versions of a shared object can be calculated for a set of tasks. We also outline an algorithm to manage conflicts between update transactions that prevents starvation.
Resumo:
Operational Modal Analysis is currently applied in structural dynamic monitoring studies using conventional wired based sensors and data acquisition platforms. This approach, however, becomes inadequate in cases where the tests are performed in ancient structures with esthetic concerns or in others, where the use of wires greatly impacts the monitoring system cost and creates difficulties in the maintenance and deployment of data acquisition platforms. In these cases, the use of sensor platforms based on wireless and MEMS would clearly benefit these applications. This work presents a first attempt to apply this wireless technology to the structural monitoring of historical masonry constructions in the context of operational modal analysis. Commercial WSN platforms were used to study one laboratory specimen and one of the structural elements of a XV century building in Portugal. Results showed that in comparison to the conventional wired sensors, wireless platforms have poor performance in respect to the acceleration time series recorded and the detection of modal shapes. However, for frequency detection issues, reliable results were obtained, especially when random excitation was used as noise source.
Resumo:
Multiprocessors, particularly in the form of multicores, are becoming standard building blocks for executing reliable software. But their use for applications with hard real-time requirements is non-trivial. Well-known realtime scheduling algorithms in the uniprocessor context (Rate-Monotonic [1] or Earliest-Deadline-First [1]) do not perform well on multiprocessors. For this reason the scientific community in the area of real-time systems has produced new algorithms specifically for multiprocessors. In the meanwhile, a proposal [2] exists for extending the Ada language with new basic constructs which can be used for implementing new algorithms for real-time scheduling; the family of task splitting algorithms is one of them which was emphasized in the proposal [2]. Consequently, assessing whether existing task splitting multiprocessor scheduling algorithms can be implemented with these constructs is paramount. In this paper we present a list of state-of-art task-splitting multiprocessor scheduling algorithms and, for each of them, we present detailed Ada code that uses the new constructs.
Resumo:
Dissertação apresentada na Universidade do Minho com vista à obtenção do grau de Doutor em Tecnologias e Sistemas de Informação (Engenharia e Gestão de Sistemas de Informação)
Resumo:
Most of today’s embedded systems are required to work in dynamic environments, where the characteristics of the computational load cannot always be predicted in advance. Furthermore, resource needs are usually data dependent and vary over time. Resource constrained devices may need to cooperate with neighbour nodes in order to fulfil those requirements and handle stringent non-functional constraints. This paper describes a framework that facilitates the distribution of resource intensive services across a community of nodes, forming temporary coalitions for a cooperative QoSaware execution. The increasing need to tailor provided service to each application’s specific needs determines the dynamic selection of peers to form such a coalition. The system is able to react to load variations, degrading its performance in a controlled fashion if needed. Isolation between different services is achieved by guaranteeing a minimal service quality to accepted services and by an efficient overload control that considers the challenges and opportunities of dynamic distributed embedded systems.
Resumo:
Mestrado em Engenharia Química - Ramo Tecnologias de Protecção Ambiental
Resumo:
The Casa da Música Foundation, responsible for the management of Casa da Música do Porto building, has the need to obtain statistical data related to the number of building’s visitors. This information is a valuable tool for the elaboration of periodical reports concerning the success of this cultural institution. For this reason it was necessary to develop a system capable of returning the number of visitors for a requested period of time. This represents a complex task due to the building’s unique architectural design, characterized by very large doors and halls, and the sudden large number of people that pass through them in moments preceding and proceeding the different activities occurring in the building. To achieve the technical solution for this challenge, several image processing methods, for people detection with still cameras, were first studied. The next step was the development of a real time algorithm, using OpenCV libraries and computer vision concepts,to count individuals with the desired accuracy. This algorithm includes the scientific and technical knowledge acquired in the study of the previous methods. The themes developed in this thesis comprise the fields of background maintenance, shadow and highlight detection, and blob detection and tracking. A graphical interface was also built, to help on the development, test and tunning of the proposed system, as a complement to the work. Furthermore, tests to the system were also performed, to certify the proposed techniques against a set of limited circumstances. The results obtained revealed that the algorithm was successfully applied to count the number of people in complex environments with reliable accuracy.
Resumo:
No âmbito da Unidade Curricular Dissertação, inserida no segundo ano do Mestrado em Engenharia Mecânica – Gestão Industrial do Instituto Superior de Engenharia do Porto, foi proposto um projecto que está a ser desenvolvido pela equipa de Engenharia e Gestão Industrial, da unidade de negócios AMT, intitulado por: “Projecto Índia – Desenvolvimento da nova unidade fabril” Este projecto tem como principal objectivo o desenvolvimento de uma fábrica de excelência na Índia de fabricação de componentes de média tensão, isto é, com processos logísticos bem definidos e com linhas de produção o mais automatizadas possivel. Esta nova fábrica de raiz, vai ser gerida e decalcada do modelo atualmente existe na fábrica da EFACEC de componentes de média tensão existente em Portugal. Numa primeira fase do desenvolvimento do projecto, foi seleccionado um edifício com cerca de 1600m2 em Nashik, uma localidade a cerca de 171 Km de Mumbai, onde se encontram 80% dos fornecedores da EFACEC. Foram identificados os produtos a serem fabricados e quantificada a respectiva procura anual. Foi efectuado o balanceamento de cada uma das linhas e desenhado o layout. Neste layout contemplou-se as áreas de produção, laboratório, gabinetes de chefes de equipa, expedição, recepção e armazém. Após a definição das áreas de montagem de cada produto, iniciou-se a concepção das linhas de produção, sobretudo automáticas, com a definição da cadência de produção. A linha de fabricação que é especialmente detalhada neste documento é a linha de montagem dos comandos CI. Este é o produto com mais procura. Foi também definido o processo logístico do fluxo interno da fábrica. Nas linhas de produção foi implementado o sistema de controlo de fluxo baseado em cartões Kanban e no armazém criou-se um novo conceito de controlo e localização de produtos, o “Aquiles”. O Aquiles permite automaticamente e através da leitura de código de barras, indexar os artigos nas estantes. Cada artigo e cada estante e/ou localização estão codificados e no momento de recepção de material o código do artigo é associado ao código da estante. No âmbito de explorar todas as soluções possíveis para a um melhor desenvolvimento desta nova fábrica foram abordados temas como “JIT”, “Pull Flow”, “Kanban”, “Takttime”.
Resumo:
São vários os factores sociais e económicos que valorizam a aplicação de tecnologias de domótica em edifícios. No caso particular dos edifícios residenciais, a tendência dos seus utilizadores é a instalação de sistemas de controlo da segurança, do ambiente, de mecanismos de rega e de alarmes. Assim, seguindo a premissa do marketing, que identifica como uma boa prática a projecção de produtos / serviços que satisfaçam as necessidades inventariadas pelos seus utilizadores, este trabalho assenta na criação de um sistema domótico, controlado remotamente através de uma aplicação Android, que pretende, numa primeira instância, o controlo das lâmpadas de uma habitação. Neste trabalho é utilizado o protocolo KNX.TP para a comunicação dos dispositivos de domótica existentes no ISEP, que constituem o ambiente domótico deste trabalho. De forma a implementar o controlo remoto destes dispositivos via internet, este trabalho foca-se no desenvolvimento de uma interface IP-KNX, usando como hardware de controlo, um Arduino Mega 2560, uma placa de interface Ethernet para Arduino, a placa de integração KNX, e um servidor web com a linguagem PHP instalada. Para efeitos de demonstração, foi criada uma aplicação para o SO Android que controla as lâmpadas da rede KNX. Neste trabalho foram utilizadas várias linguagens de programação: C++ no firmware do Arduino, PHP no servidor web e JAVA + XML na aplicação Android.
Resumo:
Esta dissertação incide sobre a problemática da construção de um data warehouse para a empresa AdClick que opera na área de marketing digital. O marketing digital é um tipo de marketing que utiliza os meios de comunicação digital, com a mesma finalidade do método tradicional que se traduz na divulgação de bens, negócios e serviços e a angariação de novos clientes. Existem diversas estratégias de marketing digital tendo em vista atingir tais objetivos, destacando-se o tráfego orgânico e tráfego pago. Onde o tráfego orgânico é caracterizado pelo desenvolvimento de ações de marketing que não envolvem quaisquer custos inerentes à divulgação e/ou angariação de potenciais clientes. Por sua vez o tráfego pago manifesta-se pela necessidade de investimento em campanhas capazes de impulsionar e atrair novos clientes. Inicialmente é feita uma abordagem do estado da arte sobre business intelligence e data warehousing, e apresentadas as suas principais vantagens as empresas. Os sistemas business intelligence são necessários, porque atualmente as empresas detêm elevados volumes de dados ricos em informação, que só serão devidamente explorados fazendo uso das potencialidades destes sistemas. Nesse sentido, o primeiro passo no desenvolvimento de um sistema business intelligence é concentrar todos os dados num sistema único integrado e capaz de dar apoio na tomada de decisões. É então aqui que encontramos a construção do data warehouse como o sistema único e ideal para este tipo de requisitos. Nesta dissertação foi elaborado o levantamento das fontes de dados que irão abastecer o data warehouse e iniciada a contextualização dos processos de negócio existentes na empresa. Após este momento deu-se início à construção do data warehouse, criação das dimensões e tabelas de factos e definição dos processos de extração e carregamento dos dados para o data warehouse. Assim como a criação das diversas views. Relativamente ao impacto que esta dissertação atingiu destacam-se as diversas vantagem a nível empresarial que a empresa parceira neste trabalho retira com a implementação do data warehouse e os processos de ETL para carregamento de todas as fontes de informação. Sendo que algumas vantagens são a centralização da informação, mais flexibilidade para os gestores na forma como acedem à informação. O tratamento dos dados de forma a ser possível a extração de informação a partir dos mesmos.
Resumo:
O crescente aumento da consciencialização da importância da fase de operação e manutenção, bem como a amplificação que a metodologia Building Information Modelling (BIM) tem obtido nos últimos anos, sugere uma necessidade de alterar a atual abordagem da gestão das instalações de forma a dotá-la das mais recentes inovações tecnológicas como seja a utilização do BIM. Os Building Information Models apresentam as características ideais para a integração da gestão das instalações, não só pela visualização do edifício, mas sobretudo pela potencialidade que a base de dados oferece, com informação referente a cada um dos componentes presentes e suas relações. O âmbito deste trabalho envolve assim a integração da gestão das instalações com o modelo BIM criado, representativo do edifício em estudo. Este trabalho começa com as definições do âmbito e dos objetivos que são propostos no Capítulo 1. No Capítulo 2, é elaborada uma pesquisa sobre o estado da arte atual de cada uma das metodologias BIM e FM, de forma a tomar conhecimento dos seus conceitos principais. Foi feito também um levantamento no campo do BIM-FM de forma a apurar as atuais soluções tecnológicas existentes, a forma como é feita a sua troca de informação e também alguns casos em que esta metodologia foi aplicada. Com base na informação recolhida sobre as metodologias e também nos casos práticos estudados, é realizado no Capítulo 3, capítulo central deste trabalho, a aplicação prática. A realização desta aplicação é dividida por 3 fases principais. Numa primeira fase é especificada e recolhida a informação necessária de ser obtida para a realização do modelo e a posterior aplicação do FM. A escolha da informação a recolher é feita ponderando todos os fatores existentes, mas de forma a cumprir os requisitos pedidos. Numa segunda fase, assente na compilação de informação recolhida anteriormente, realiza-se o modelo do edifício. A modelação, de forma a seguir o método de trabalho BIM é realizada por especialidades, sendo numa primeira fase realizada a especialidade de arquitetura e posteriormente, utilizando esse modelo como base, é feita a modelação das especialidades de águas, águas residuais, AVAC e eletricidade. Esta escolha foi também estimulada pela organização do software utilizado para a modelação, por módulos. Na última fase da aplicação do caso prático a informação inserida na fase de modelação do edifício é exportada para o software de FM, neste caso em específico, o IBM Maximo. Para a exportação destes dados foi utilizado o formato Construction Operations Building Information Exchange (COBie), de forma a garantir a integridade e conformidade da informação transferida. No Capítulo 4 deste trabalho são abordadas as especificidades relativas à informação existente, à modelação e à troca de dados entre o software de modelação e o software utilizado na gestão do edifício. São também sugeridos alguns temas para futuros desenvolvimentos com o intuito de ampliação dos campos de FM com o uso do modelo. O BIM-FM é um tema emergente na atualidade do BIM, sendo a sua utilização encarada como uma mais-valia ao processo BIM. A compilação da informação durante a fase de projeto e execução, aliada à existência do modelo torna a implementação do FM com o modelo BIM como uma sequência natural.
Resumo:
A civilização contemporânea, pelas suas características, é muito exigente em tudo o que diz respeito ao conforto dos edifícios, para trabalho ou habitação, e à necessidade de economizar e racionalizar o uso de energia. A térmica dos edifícios assume, por isso, uma importância acrescida na atividade profissional e no ensino. Para se conduzir ao aperfeiçoamento de soluções na envolvente dos edifícios a este nível, o trabalho aqui realizado centrou-se no estudo do funcionamento da termografia de infravermelhos e da importância da sua utilização na inspeção térmica de edifícios. Descoberta no início do século XIX e desenvolvendo os primeiros sistemas operativos desde a 1ª Guerra Mundial, a fim de determinar heterogeneidades de temperatura superficial, esta técnica não destrutiva permite identificar anomalias que não são visualizadas a olho nu. Com a análise dessas variações de temperatura é possível conhecer os problemas e a localização de irregularidades. Este trabalho baseia-se substancialmente no estudo de edifícios. A análise realizada teve como finalidade executar inspeções termográficas – visuais, com duas abordagens. Por um lado, avaliar salas pertencentes a estabelecimentos de ensino secundário, reabilitadas e não reabilitadas, todas construídas entre as décadas de 60 e 90, com o intuito de diagnosticar patologias construtivas, recorrendo à termografia. Por outro, a análise de edifícios de habitação, com a intenção de avaliar a necessidade de um equipamento complementar às inspeções termográficas – o sistema de porta ventiladora. As inspeções foram regidas pelas diretrizes da norma europeia EN 13187. A termografia é uma técnica importante na realização de ensaios in situ que requerem rapidez de execução, aliada à vantagem de disponibilizar resultados em tempo real, permitindo assim uma primeira análise das leituras no local. A inspeção termográfica complementada com o sistema de porta ventiladora permitiu, também, revelar a importância da necessidade de meios auxiliares em certos casos. A conjugação destas diferentes técnicas permite reduzir a subjetividade da análise in situ e aumentar a fiabilidade do diagnóstico.
Resumo:
O presente trabalho foi realizado com o intuito de dar a conhecer, de um modo mais pormenorizado, os diferentes tipos de sistemas de revestimento de fachadas em zinco. Numa primeira fase abordou-se as características do metal zinco, assim como uma breve explicação do seu processo produtivo e a sua aplicação no campo da engenharia civil. O tema da sustentabilidade é também desenvolvido no que respeita à utilização do metal zinco na construção. Posteriormente serão especificadas certas propriedades do zinco laminado. É este tipo de zinco que será aplicado na envolvente exterior de edifícios. Numa fase posterior desenvolve-se a caracterização dos diversos tipos de sistemas construtivos de fachadas, com a respetiva descrição dos sistemas. São vários os sistemas disponíveis no mercado, sendo os mais utilizados em Portugal, os sistemas de junta agrafada, sistema de encaixe e sistema Camarinha. São ainda abordados os diversos suportes deste tipo de revestimento, as patologias que podem surgir e também as vantagens e limitações do zinco como material de revestimento. Por último é apresentado o estudo de um caso concreto, baseado num projeto de um edifício de habitação multifamiliar, e serão desenvolvidos aspetos como o tipo de sistema de fachada aplicado e o seu modo de execução, para além do estudo do desempenho térmico e acústico das fachadas e o seu custo de execução.
Resumo:
To meet the increasing demands of the complex inter-organizational processes and the demand for continuous innovation and internationalization, it is evident that new forms of organisation are being adopted, fostering more intensive collaboration processes and sharing of resources, in what can be called collaborative networks (Camarinha-Matos, 2006:03). Information and knowledge are crucial resources in collaborative networks, being their management fundamental processes to optimize. Knowledge organisation and collaboration systems are thus important instruments for the success of collaborative networks of organisations having been researched in the last decade in the areas of computer science, information science, management sciences, terminology and linguistics. Nevertheless, research in this area didn’t give much attention to multilingual contexts of collaboration, which pose specific and challenging problems. It is then clear that access to and representation of knowledge will happen more and more on a multilingual setting which implies the overcoming of difficulties inherent to the presence of multiple languages, through the use of processes like localization of ontologies. Although localization, like other processes that involve multilingualism, is a rather well-developed practice and its methodologies and tools fruitfully employed by the language industry in the development and adaptation of multilingual content, it has not yet been sufficiently explored as an element of support to the development of knowledge representations - in particular ontologies - expressed in more than one language. Multilingual knowledge representation is then an open research area calling for cross-contributions from knowledge engineering, terminology, ontology engineering, cognitive sciences, computational linguistics, natural language processing, and management sciences. This workshop joined researchers interested in multilingual knowledge representation, in a multidisciplinary environment to debate the possibilities of cross-fertilization between knowledge engineering, terminology, ontology engineering, cognitive sciences, computational linguistics, natural language processing, and management sciences applied to contexts where multilingualism continuously creates new and demanding challenges to current knowledge representation methods and techniques. In this workshop six papers dealing with different approaches to multilingual knowledge representation are presented, most of them describing tools, approaches and results obtained in the development of ongoing projects. In the first case, Andrés Domínguez Burgos, Koen Kerremansa and Rita Temmerman present a software module that is part of a workbench for terminological and ontological mining, Termontospider, a wiki crawler that aims at optimally traverse Wikipedia in search of domainspecific texts for extracting terminological and ontological information. The crawler is part of a tool suite for automatically developing multilingual termontological databases, i.e. ontologicallyunderpinned multilingual terminological databases. In this paper the authors describe the basic principles behind the crawler and summarized the research setting in which the tool is currently tested. In the second paper, Fumiko Kano presents a work comparing four feature-based similarity measures derived from cognitive sciences. The purpose of the comparative analysis presented by the author is to verify the potentially most effective model that can be applied for mapping independent ontologies in a culturally influenced domain. For that, datasets based on standardized pre-defined feature dimensions and values, which are obtainable from the UNESCO Institute for Statistics (UIS) have been used for the comparative analysis of the similarity measures. The purpose of the comparison is to verify the similarity measures based on the objectively developed datasets. According to the author the results demonstrate that the Bayesian Model of Generalization provides for the most effective cognitive model for identifying the most similar corresponding concepts existing for a targeted socio-cultural community. In another presentation, Thierry Declerck, Hans-Ulrich Krieger and Dagmar Gromann present an ongoing work and propose an approach to automatic extraction of information from multilingual financial Web resources, to provide candidate terms for building ontology elements or instances of ontology concepts. The authors present a complementary approach to the direct localization/translation of ontology labels, by acquiring terminologies through the access and harvesting of multilingual Web presences of structured information providers in the field of finance, leading to both the detection of candidate terms in various multilingual sources in the financial domain that can be used not only as labels of ontology classes and properties but also for the possible generation of (multilingual) domain ontologies themselves. In the next paper, Manuel Silva, António Lucas Soares and Rute Costa claim that despite the availability of tools, resources and techniques aimed at the construction of ontological artifacts, developing a shared conceptualization of a given reality still raises questions about the principles and methods that support the initial phases of conceptualization. These questions become, according to the authors, more complex when the conceptualization occurs in a multilingual setting. To tackle these issues the authors present a collaborative platform – conceptME - where terminological and knowledge representation processes support domain experts throughout a conceptualization framework, allowing the inclusion of multilingual data as a way to promote knowledge sharing and enhance conceptualization and support a multilingual ontology specification. In another presentation Frieda Steurs and Hendrik J. Kockaert present us TermWise, a large project dealing with legal terminology and phraseology for the Belgian public services, i.e. the translation office of the ministry of justice, a project which aims at developing an advanced tool including expert knowledge in the algorithms that extract specialized language from textual data (legal documents) and whose outcome is a knowledge database including Dutch/French equivalents for legal concepts, enriched with the phraseology related to the terms under discussion. Finally, Deborah Grbac, Luca Losito, Andrea Sada and Paolo Sirito report on the preliminary results of a pilot project currently ongoing at UCSC Central Library, where they propose to adapt to subject librarians, employed in large and multilingual Academic Institutions, the model used by translators working within European Union Institutions. The authors are using User Experience (UX) Analysis in order to provide subject librarians with a visual support, by means of “ontology tables” depicting conceptual linking and connections of words with concepts presented according to their semantic and linguistic meaning. The organizers hope that the selection of papers presented here will be of interest to a broad audience, and will be a starting point for further discussion and cooperation.
Impact of design options in zero energy building conception: the case of large buildings in Portugal
Resumo:
The new recast of Directive 2010/31/EU in order to implement the new concept NZEB in new buildings, is to be fully respected by all Member States, and is revealed as important measure to promote the reduction of energy consumption of buildings and encouraging the use of renewable energy. In this study, it was tested the applicability of the nearly zero energy building concept to a big size office building and its impact after a 50-years life cycle span.