56 resultados para libreria, Software, Database, ORM, transazionalità


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Consider a multihop network comprising Ethernet switches. The traffic is described with flows and each flow is characterized by its source node, its destination node, its route and parameters in the generalized multiframe model. Output queues on Ethernet switches are scheduled by static-priority scheduling and tasks executing on the processor in an Ethernet switch are scheduled by stride scheduling. We present schedulability analysis for this setting.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rationale and Objectives Computer-aided detection and diagnosis (CAD) systems have been developed in the past two decades to assist radiologists in the detection and diagnosis of lesions seen on breast imaging exams, thus providing a second opinion. Mammographic databases play an important role in the development of algorithms aiming at the detection and diagnosis of mammary lesions. However, available databases often do not take into consideration all the requirements needed for research and study purposes. This article aims to present and detail a new mammographic database. Materials and Methods Images were acquired at a breast center located in a university hospital (Centro Hospitalar de S. João [CHSJ], Breast Centre, Porto) with the permission of the Portuguese National Committee of Data Protection and Hospital's Ethics Committee. MammoNovation Siemens full-field digital mammography, with a solid-state detector of amorphous selenium was used. Results The new database—INbreast—has a total of 115 cases (410 images) from which 90 cases are from women with both breasts affected (four images per case) and 25 cases are from mastectomy patients (two images per case). Several types of lesions (masses, calcifications, asymmetries, and distortions) were included. Accurate contours made by specialists are also provided in XML format. Conclusion The strengths of the actually presented database—INbreast—relies on the fact that it was built with full-field digital mammograms (in opposition to digitized mammograms), it presents a wide variability of cases, and is made publicly available together with precise annotations. We believe that this database can be a reference for future works centered or related to breast cancer imaging.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Remote Laboratories or WebLabs constitute a first-order didactic resource in engineering faculties. However, in many cases, they lack a proper software design, both in the client and server side, which degrades their quality and academic usefulness. This paper presents the main characteristics of a Remote Laboratory, analyzes the software technologies to implement the client and server sides in a WebLab, and correlates these technologies with the characteristics to facilitate the selection of a technology to implement a WebLab. The results obtained suggest the adoption of a Service Oriented Laboratory Architecture-based approach for the design of future Remote Laboratories so that client-agnostic Remote Laboratories and Remote Laboratory composition are enabled. The experience with the real Remote Laboratory, WebLab-Deusto, is also presented.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o crescente aumento da Teleradiologia, sentiu-se necessidade de criar mais e melhores softwares para sustentar esse crescimento. O presente trabalho pretende abordar a temática da certificação de software e a sua marcação CE, pois para dar entrada no mercado Europeu todos os Dispositivos Médicos (DM) têm de estar devidamente certificados. Para efetuar a marcação CE e a certificação serão estudadas normas e normativos adequados para marcação de DM ao nível Europeu e também dos Estados Unidos da América. A temática da segurança de dados pessoais será também estudada de forma a assegurar que o dispositivo respeite a legislação em vigor. Este estudo tem como finalidade a certificação de um software proprietário da efficientia sysPACS, um serviço online abrangente, que permite a gestão integrada do armazenamento e distribuição de imagens médicas para apoio ao diagnóstico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Most of the traditional software and database development approaches tend to be serial, not evolutionary and certainly not agile, especially on data-oriented aspects. Most of the more commonly used methodologies are strict, meaning they’re composed by several stages each with very specific associated tasks. A clear example is the Rational Unified Process (RUP), divided into Business Modeling, Requirements, Analysis & Design, Implementation, Testing and Deployment. But what happens when the needs of a well design and structured plan, meet the reality of a small starting company that aims to build an entire user experience solution. Here resource control and time productivity is vital, requirements are in constant change, and so is the product itself. In order to succeed in this environment a highly collaborative and evolutionary development approach is mandatory. The implications of constant changing requirements imply an iterative development process. Project focus is on Data Warehouse development and business modeling. This area is usually a tricky one. Business knowledge is part of the enterprise, how they work, their goals, what is relevant for analyses are internal business processes. Throughout this document it will be explained why Agile Modeling development was chosen. How an iterative and evolutionary methodology, allowed for reasonable planning and documentation while permitting development flexibility, from idea to product. More importantly how it was applied on the development of a Retail Focused Data Warehouse. A productized Data Warehouse built on the knowledge of not one but several client needs. One that aims not just to store usual business areas but create an innovative sets of business metrics by joining them with store environment analysis, converting Business Intelligence into Actionable Business Intelligence.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente relatório possui o propósito de apresentar o estágio curricular desenvolvido na empresa “Santa Casa da Misericórdia de Felgueiras”, iniciado a 1 de maio de 2013, englobando horas de aprendizagem e consolidação de conhecimentos adquiridos no percurso académico. A realização do presente estágio está enquadrada no protocolo celebrado entre a “Santa Casa da Misericórdia de Felgueiras” e a Associação de Politécnicos do Norte, cumprindo desta forma o art.º 2 e 3 do Regulamento de Estágios Curriculares da Associação de Politécnicos do Norte (APNOR). A realização do estágio, bem como a realização deste relatório, é o produto final de meses de experiência laboral, pesquisa bibliográfica e de reflexão, de um ano curricular. Com a realização deste estágio e do relatório permitiu-me concluir acerca de como é elaborada a gestão hospitalar e a sua importância no contexto empresarial. A gestão contribui com o fornecimento de informações económicas nos diferentes usuários como: Gestores, Governo, Sindicato, Funcionários.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação enquadra-se no âmbito dos Sistemas de Informação, em concreto, no desenvolvimento de aplicações Web, como é o caso de um website. Com a utilização em larga escala dos meios tecnológicos tem-se verificado um crescimento exponencial dos mesmos, o que se traduz na facilidade com que podem ser encontradas na Internet diversos tipos de plataformas informáticas. Além disso, hoje em dia, uma grande parte das organizações possui o seu próprio sítio na Internet, onde procede à divulgação dos seus serviços e/ou produtos. Pretende-se com esta dissertação explorar estas novas tecnologias, nomeadamente, os diagramas UML - Unified Modeling Language e a concepção de bases de dados, e posteriormente desenvolver um website. Com o desenvolvimento deste website não se propõe a criação de uma nova tecnologia, mas o uso de diversas tecnologias em conjunto com recurso às ferramentas UML. Este encontra-se organizado em três fases principais: análise de requisitos, implementação e desenho das interfaces. Na análise de requisitos efectuou-se o levantamento dos objectivos propostos para o sistema e das necessidades/requisitos necessários à sua implementação, auxiliado essencialmente pelo Diagrama de Use Cases do sistema. Na fase de implementação foram elaborados os arquivos e directórios que formam a arquitectura lógica de acordo com os modelos descritos no Diagrama de Classes e no Diagrama de Entidade-Relação. Os requisitos identificados foram analisados e usados na composição das interfaces e sistema de navegação. Por fim, na fase de desenho das interfaces foram aperfeiçoadas as interfaces desenvolvidas, com base no conceito artístico e criativo do autor. Este aperfeiçoamento vai de encontro ao gosto pessoal e tem como objectivo elaborar uma interface que possa também agradar ao maior número possível de utilizadores. Este pode ser observado na maneira como se encontram distribuídas as ligações (links) entre páginas, nos títulos, nos cabeçalhos, nas cores e animações e no seu design em geral. Para o desenvolvimento do website foram utilizadas diferentes linguagens de programação, nomeadamente a HyperText Markup Language (HTML), a Page Hypertext Preprocessor (PHP) e Javascript. A HTML foi utilizada para a disposição de todo o conteúdo visível das páginas e para definição do layout das mesmas e a PHP para executar pequenos scripts que permitem interagir com as diferentes funcionalidades do site. A linguagem Javascript foi usada para definir o design das páginas e incluir alguns efeitos visuais nas mesmas. Para a construção das páginas que compõem o website foi utilizado o software Macromedia Dreamweaver, o que simplificou a sua implementação pela facilidade com que estas podem ser construídas. Para interacção com o sistema de gestão da base de dados, o MySQL, foi utilizada a aplicação phpMyAdmin, que simplifica o acesso à base de dados, permitindo definir, manipular e consultar os seus dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação surge da necessidade da empresa Continental - Indústria Têxtil do Ave S.A. – grupo Continental Mabor atualizar os esquemas elétricos de uma máquina para acabamento térmico e químico de telas para pneus. Esta máquina (Zell) é crucial no seu processo produtivo e foi ao longo dos anos sofrendo sucessivas atualizações no sentido de melhorar o seu processo de produção. Existiam já, esquemas elétricos da máquina realizados em EPLAN no entanto não foram acompanhando as sucessivas alterações sofridas pela mesma. Deste modo, torna-se assim necessário não só produzir um suporte digital desses mesmos esquemas como também proceder à sua atualização. Ao longo desta dissertação o leitor pode obter informações relativas à Zell e ao processo de análise, estudo e documentação dos seus quadros elétricos em software EPLAN Electric P8. São ainda abordadas técnicas de leitura e desenho em EPLAN e descritas algumas das funcionalidade que este permite. É abordada a base de dados criada com informações relativas à máquina tais como características dos seus motores, variadores de frequência e localização dos quadros elétricos ao longo dos pisos que a compõe. No âmbito desta dissertação foi redigido o “Manual da Máquina de Impregnar Zell” e neste relatório abordam-se os principais tópicos que o compõe. Com a atualização dos esquemas tornou-se necessário proceder à identificação de diversos componentes na máquina. Esse processo de identificação é também aqui retratado. O leitor pode por fim obter informações de como realizar um processo de troca de variadores de frequência da marca ABB de diferentes gamas tendo em consideração as ligações em causa para o fazer. Pretende-se assim que o leitor fique com uma noção geral das diferentes vertentes que foram abordadas neste trabalho realizado sob a forma de um estágio com duração de seis meses no seio desta indústria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O crescente aumento da consciencialização da importância da fase de operação e manutenção, bem como a amplificação que a metodologia Building Information Modelling (BIM) tem obtido nos últimos anos, sugere uma necessidade de alterar a atual abordagem da gestão das instalações de forma a dotá-la das mais recentes inovações tecnológicas como seja a utilização do BIM. Os Building Information Models apresentam as características ideais para a integração da gestão das instalações, não só pela visualização do edifício, mas sobretudo pela potencialidade que a base de dados oferece, com informação referente a cada um dos componentes presentes e suas relações. O âmbito deste trabalho envolve assim a integração da gestão das instalações com o modelo BIM criado, representativo do edifício em estudo. Este trabalho começa com as definições do âmbito e dos objetivos que são propostos no Capítulo 1. No Capítulo 2, é elaborada uma pesquisa sobre o estado da arte atual de cada uma das metodologias BIM e FM, de forma a tomar conhecimento dos seus conceitos principais. Foi feito também um levantamento no campo do BIM-FM de forma a apurar as atuais soluções tecnológicas existentes, a forma como é feita a sua troca de informação e também alguns casos em que esta metodologia foi aplicada. Com base na informação recolhida sobre as metodologias e também nos casos práticos estudados, é realizado no Capítulo 3, capítulo central deste trabalho, a aplicação prática. A realização desta aplicação é dividida por 3 fases principais. Numa primeira fase é especificada e recolhida a informação necessária de ser obtida para a realização do modelo e a posterior aplicação do FM. A escolha da informação a recolher é feita ponderando todos os fatores existentes, mas de forma a cumprir os requisitos pedidos. Numa segunda fase, assente na compilação de informação recolhida anteriormente, realiza-se o modelo do edifício. A modelação, de forma a seguir o método de trabalho BIM é realizada por especialidades, sendo numa primeira fase realizada a especialidade de arquitetura e posteriormente, utilizando esse modelo como base, é feita a modelação das especialidades de águas, águas residuais, AVAC e eletricidade. Esta escolha foi também estimulada pela organização do software utilizado para a modelação, por módulos. Na última fase da aplicação do caso prático a informação inserida na fase de modelação do edifício é exportada para o software de FM, neste caso em específico, o IBM Maximo. Para a exportação destes dados foi utilizado o formato Construction Operations Building Information Exchange (COBie), de forma a garantir a integridade e conformidade da informação transferida. No Capítulo 4 deste trabalho são abordadas as especificidades relativas à informação existente, à modelação e à troca de dados entre o software de modelação e o software utilizado na gestão do edifício. São também sugeridos alguns temas para futuros desenvolvimentos com o intuito de ampliação dos campos de FM com o uso do modelo. O BIM-FM é um tema emergente na atualidade do BIM, sendo a sua utilização encarada como uma mais-valia ao processo BIM. A compilação da informação durante a fase de projeto e execução, aliada à existência do modelo torna a implementação do FM com o modelo BIM como uma sequência natural.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ISCAP 9 e 10 de Maio de 1997

Relevância:

20.00% 20.00%

Publicador:

Resumo:

STRIPPING is a software application developed for the automatic design of a randomly packing column where the transfer of volatile organic compounds (VOCs) from water to air can be performed and to simulate it’s behaviour in a steady-state. This software completely purges any need of experimental work for the selection of diameter of the column, and allows a choice, a priori, of the most convenient hydraulic regime for this type of operation. It also allows the operator to choose the model used for the calculation of some parameters, namely between the Eckert/Robbins model and the Billet model for estimating the pressure drop of the gaseous phase, and between the Billet and Onda/Djebbar’s models for the mass transfer. Illustrations of the graphical interface offered are presented.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este documento consubstancia um trabalho de natureza profissional, submetido a apreciação no âmbito de um pedido de atribuição pelo Instituto Politécnico do Porto do título de Especialista na área científica de Informática, mais concretamente em gestão de projectos e equipas em PMEs de desenvolvimento de software. Nesse sentido, proceder-se-á a uma breve análise do estado da prática relevante, seguida de uma descrição das funções que desempenhei ao longo do meu percurso profissional e dos principais projectos em que tive oportunidade de participar durante o mesmo. Finalmente, o documento procede a uma análise crítica de alguns sucessos e insucessos na aplicação do estado da prática, ilustrados com exemplos reais que vivenciei durante a minha carreira.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

To meet the increasing demands of the complex inter-organizational processes and the demand for continuous innovation and internationalization, it is evident that new forms of organisation are being adopted, fostering more intensive collaboration processes and sharing of resources, in what can be called collaborative networks (Camarinha-Matos, 2006:03). Information and knowledge are crucial resources in collaborative networks, being their management fundamental processes to optimize. Knowledge organisation and collaboration systems are thus important instruments for the success of collaborative networks of organisations having been researched in the last decade in the areas of computer science, information science, management sciences, terminology and linguistics. Nevertheless, research in this area didn’t give much attention to multilingual contexts of collaboration, which pose specific and challenging problems. It is then clear that access to and representation of knowledge will happen more and more on a multilingual setting which implies the overcoming of difficulties inherent to the presence of multiple languages, through the use of processes like localization of ontologies. Although localization, like other processes that involve multilingualism, is a rather well-developed practice and its methodologies and tools fruitfully employed by the language industry in the development and adaptation of multilingual content, it has not yet been sufficiently explored as an element of support to the development of knowledge representations - in particular ontologies - expressed in more than one language. Multilingual knowledge representation is then an open research area calling for cross-contributions from knowledge engineering, terminology, ontology engineering, cognitive sciences, computational linguistics, natural language processing, and management sciences. This workshop joined researchers interested in multilingual knowledge representation, in a multidisciplinary environment to debate the possibilities of cross-fertilization between knowledge engineering, terminology, ontology engineering, cognitive sciences, computational linguistics, natural language processing, and management sciences applied to contexts where multilingualism continuously creates new and demanding challenges to current knowledge representation methods and techniques. In this workshop six papers dealing with different approaches to multilingual knowledge representation are presented, most of them describing tools, approaches and results obtained in the development of ongoing projects. In the first case, Andrés Domínguez Burgos, Koen Kerremansa and Rita Temmerman present a software module that is part of a workbench for terminological and ontological mining, Termontospider, a wiki crawler that aims at optimally traverse Wikipedia in search of domainspecific texts for extracting terminological and ontological information. The crawler is part of a tool suite for automatically developing multilingual termontological databases, i.e. ontologicallyunderpinned multilingual terminological databases. In this paper the authors describe the basic principles behind the crawler and summarized the research setting in which the tool is currently tested. In the second paper, Fumiko Kano presents a work comparing four feature-based similarity measures derived from cognitive sciences. The purpose of the comparative analysis presented by the author is to verify the potentially most effective model that can be applied for mapping independent ontologies in a culturally influenced domain. For that, datasets based on standardized pre-defined feature dimensions and values, which are obtainable from the UNESCO Institute for Statistics (UIS) have been used for the comparative analysis of the similarity measures. The purpose of the comparison is to verify the similarity measures based on the objectively developed datasets. According to the author the results demonstrate that the Bayesian Model of Generalization provides for the most effective cognitive model for identifying the most similar corresponding concepts existing for a targeted socio-cultural community. In another presentation, Thierry Declerck, Hans-Ulrich Krieger and Dagmar Gromann present an ongoing work and propose an approach to automatic extraction of information from multilingual financial Web resources, to provide candidate terms for building ontology elements or instances of ontology concepts. The authors present a complementary approach to the direct localization/translation of ontology labels, by acquiring terminologies through the access and harvesting of multilingual Web presences of structured information providers in the field of finance, leading to both the detection of candidate terms in various multilingual sources in the financial domain that can be used not only as labels of ontology classes and properties but also for the possible generation of (multilingual) domain ontologies themselves. In the next paper, Manuel Silva, António Lucas Soares and Rute Costa claim that despite the availability of tools, resources and techniques aimed at the construction of ontological artifacts, developing a shared conceptualization of a given reality still raises questions about the principles and methods that support the initial phases of conceptualization. These questions become, according to the authors, more complex when the conceptualization occurs in a multilingual setting. To tackle these issues the authors present a collaborative platform – conceptME - where terminological and knowledge representation processes support domain experts throughout a conceptualization framework, allowing the inclusion of multilingual data as a way to promote knowledge sharing and enhance conceptualization and support a multilingual ontology specification. In another presentation Frieda Steurs and Hendrik J. Kockaert present us TermWise, a large project dealing with legal terminology and phraseology for the Belgian public services, i.e. the translation office of the ministry of justice, a project which aims at developing an advanced tool including expert knowledge in the algorithms that extract specialized language from textual data (legal documents) and whose outcome is a knowledge database including Dutch/French equivalents for legal concepts, enriched with the phraseology related to the terms under discussion. Finally, Deborah Grbac, Luca Losito, Andrea Sada and Paolo Sirito report on the preliminary results of a pilot project currently ongoing at UCSC Central Library, where they propose to adapt to subject librarians, employed in large and multilingual Academic Institutions, the model used by translators working within European Union Institutions. The authors are using User Experience (UX) Analysis in order to provide subject librarians with a visual support, by means of “ontology tables” depicting conceptual linking and connections of words with concepts presented according to their semantic and linguistic meaning. The organizers hope that the selection of papers presented here will be of interest to a broad audience, and will be a starting point for further discussion and cooperation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

INTED2010, the 4th International Technology, Education and Development Conference was held in Valencia (Spain), on March 8, 9 and 10, 2010.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Applications refactorings that imply the schema evolution are common activities in programming practices. Although modern object-oriented databases provide transparent schema evolution mechanisms, those refactorings continue to be time consuming tasks for programmers. In this paper we address this problem with a novel approach based on aspect-oriented programming and orthogonal persistence paradigms, as well as our meta-model. An overview of our framework is presented. This framework, a prototype based on that approach, provides applications with aspects of persistence and database evolution. It also provides a new pointcut/advice language that enables the modularization of the instance adaptation crosscutting concern of classes, which were subject to a schema evolution. We also present an application that relies on our framework. This application was developed without any concern regarding persistence and database evolution. However, its data is recovered in each execution, as well as objects, in previous schema versions, remain available, transparently, by means of our framework.