60 resultados para Digital mapping -- Databases

em Instituto Politécnico do Porto, Portugal


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Rationale and Objectives Computer-aided detection and diagnosis (CAD) systems have been developed in the past two decades to assist radiologists in the detection and diagnosis of lesions seen on breast imaging exams, thus providing a second opinion. Mammographic databases play an important role in the development of algorithms aiming at the detection and diagnosis of mammary lesions. However, available databases often do not take into consideration all the requirements needed for research and study purposes. This article aims to present and detail a new mammographic database. Materials and Methods Images were acquired at a breast center located in a university hospital (Centro Hospitalar de S. João [CHSJ], Breast Centre, Porto) with the permission of the Portuguese National Committee of Data Protection and Hospital's Ethics Committee. MammoNovation Siemens full-field digital mammography, with a solid-state detector of amorphous selenium was used. Results The new database—INbreast—has a total of 115 cases (410 images) from which 90 cases are from women with both breasts affected (four images per case) and 25 cases are from mastectomy patients (two images per case). Several types of lesions (masses, calcifications, asymmetries, and distortions) were included. Accurate contours made by specialists are also provided in XML format. Conclusion The strengths of the actually presented database—INbreast—relies on the fact that it was built with full-field digital mammograms (in opposition to digitized mammograms), it presents a wide variability of cases, and is made publicly available together with precise annotations. We believe that this database can be a reference for future works centered or related to breast cancer imaging.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Orientada por Doutora Paula Peres

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The main purpose of this study was to examine the applicability of geostatistical modeling to obtain valuable information for assessing the environmental impact of sewage outfall discharges. The data set used was obtained in a monitoring campaign to S. Jacinto outfall, located off the Portuguese west coast near Aveiro region, using an AUV. The Matheron’s classical estimator was used the compute the experimental semivariogram which was fitted to three theoretical models: spherical, exponential and gaussian. The cross-validation procedure suggested the best semivariogram model and ordinary kriging was used to obtain the predictions of salinity at unknown locations. The generated map shows clearly the plume dispersion in the studied area, indicating that the effluent does not reach the near by beaches. Our study suggests that an optimal design for the AUV sampling trajectory from a geostatistical prediction point of view, can help to compute more precise predictions and hence to quantify more accurately dilution. Moreover, since accurate measurements of plume’s dilution are rare, these studies might be very helpful in the future for validation of dispersion models.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In Permanent Transit: Discourses and Maps of the Intercultural Experience builds interdisciplinary approaches to the study of migrations, traffics, globalization, communication, regulations, arts, literature, and other intercultural processes, in the context of past and present times. The book offers a convergence of perspectives, combining conceptual and empirical work by sociologists, anthropologists, historians, linguists, educators, lawyers, media, specialists, and literary studies writers, in their shared attempt to understand the many routes of the intercultural experience. In Permanent Transit: Discourses and Maps of the Intercultural Experience builds interdisciplinary approaches to the study of migrations, traffics, globalization, communication, regulations, arts, literature, and other intercultural processes, in the context of past and present times. The book offers a convergence of perspectives, combining conceptual and empirical work by sociologists, anthropologists, historians, linguists, educators, lawyers, media, specialists, and literary studies writers, in their shared attempt to understand the many routes of the intercultural experience.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Currently, power systems (PS) already accommodate a substantial penetration of distributed generation (DG) and operate in competitive environments. In the future, as the result of the liberalisation and political regulations, PS will have to deal with large-scale integration of DG and other distributed energy resources (DER), such as storage and provide market agents to ensure a flexible and secure operation. This cannot be done with the traditional PS operational tools used today like the quite restricted information systems Supervisory Control and Data Acquisition (SCADA) [1]. The trend to use the local generation in the active operation of the power system requires new solutions for data management system. The relevant standards have been developed separately in the last few years so there is a need to unify them in order to receive a common and interoperable solution. For the distribution operation the CIM models described in the IEC 61968/70 are especially relevant. In Europe dispersed and renewable energy resources (D&RER) are mostly operated without remote control mechanisms and feed the maximal amount of available power into the grid. To improve the network operation performance the idea of virtual power plants (VPP) will become a reality. In the future power generation of D&RER will be scheduled with a high accuracy. In order to realize VPP decentralized energy management, communication facilities are needed that have standardized interfaces and protocols. IEC 61850 is suitable to serve as a general standard for all communication tasks in power systems [2]. The paper deals with international activities and experiences in the implementation of a new data management and communication concept in the distribution system. The difficulties in the coordination of the inconsistent developed in parallel communication and data management standards - are first addressed in the paper. The upcoming unification work taking into account the growing role of D&RER in the PS is shown. It is possible to overcome the lag in current practical experiences using new tools for creating and maintenance the CIM data and simulation of the IEC 61850 protocol – the prototype of which is presented in the paper –. The origin and the accuracy of the data requirements depend on the data use (e.g. operation or planning) so some remarks concerning the definition of the digital interface incorporated in the merging unit idea from the power utility point of view are presented in the paper too. To summarize some required future work has been identified.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: O uso das TIC, nomeadamente dos ambientes virtuais de aprendizagem, são uma possibilidade pedagógica promissora e atractiva pois permitem a construção de conhecimento e a interacção entre alunos, professores e tutores. Na perspectiva do estudante, compreende-se que, em contextos virtuais de aprendizagem a tendência é a de se valorizar cada vez mais a sua participação no processo de ensino e de aprendizagem. No entanto, para que seja possível a implementação de educação a distância é necessário que os estudantes, para além da motivação e da responsabilidade acrescida, possuam um conjunto de competências específicas para participar, efectivamente, num contexto virtual de aprendizagem. Nesse contexto, e para verificar se o uso das tecnologias no processo educacional é exequível, é necessário conhecer as competências digitais dos alunos da Licenciatura em Farmácia da Escola Superior de Tecnologia da Saúde do Porto. Métodos: O estudo é descritivo-transversal e permitiu a recolha de dados através do inquérito por questionário, previamente validado. A amostra em estudo foi retirada da população formada pelos 230 estudantes da Licenciatura de Farmácia, por um processo de amostragem não probabilística por conveniência, perfazendo um total de 52 indivíduos que frequentam o 2º ano. Apresentação de Resultados e Discussão: Os resultados permitiram concluir que os estudantes utilizam as TIC de forma variada mas normalmente em actividades de lazer. Em relação ao conhecimento e utilização das ferramentas da Web 2.0 concluí-se que, na generalidade, os estudantes não conhecem e não dominam a maioria das ferramentas da Web 2.0.Ou seja, os estudantes, mesmo com as suas habilidades e conhecimentos sobre tecnologia, principalmente em relação ao uso de computadores e da Internet, e conhecendo a importância destes recursos como simplificadores nos estudos, continuam a apresentar limitações, provavelmente devido a falta de informação ou a informações duvidosas provenientes de uma utilização incorrecta dos recursos. Estes resultados representam também um desafio, uma vez que caberá à Escola capacitar os estudantes na utilização de novas tecnologias, uma vez que, estas capacidades são cada vez mais solicitadas no mercado de trabalho, e serão primordiais para o sucesso do estudante numa formação a distância mediada por computador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentada ao Instituto Superior de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Marketing Digital, sob orientação de Mestre António da Silva Vieira

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Over time, XML markup language has acquired a considerable importance in applications development, standards definition and in the representation of large volumes of data, such as databases. Today, processing XML documents in a short period of time is a critical activity in a large range of applications, which imposes choosing the most appropriate mechanism to parse XML documents quickly and efficiently. When using a programming language for XML processing, such as Java, it becomes necessary to use effective mechanisms, e.g. APIs, which allow reading and processing of large documents in appropriated manners. This paper presents a performance study of the main existing Java APIs that deal with XML documents, in order to identify the most suitable one for processing large XML files

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Over time, XML markup language has acquired a considerable importance in applications development, standards definition and in the representation of large volumes of data, such as databases. Today, processing XML documents in a short period of time is a critical activity in a large range of applications, which imposes choosing the most appropriate mechanism to parse XML documents quickly and efficiently. When using a programming language for XML processing, such as Java, it becomes necessary to use effective mechanisms, e.g. APIs, which allow reading and processing of large documents in appropriated manners. This paper presents a performance study of the main existing Java APIs that deal with XML documents, in order to identify the most suitable one for processing large XML files.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Collaborative Work plays an important role in today’s organizations, especially in areas where decisions must be made. However, any decision that involves a collective or group of decision makers is, by itself complex, but is becoming recurrent in recent years. In this work we present the VirtualECare project, an intelligent multi-agent system able to monitor, interact and serve its customers, which are, normally, in need of care services. In last year’s there has been a substantially increase on the number of people needed of intensive care, especially among the elderly, a phenomenon that is related to population ageing. However, this is becoming not exclusive of the elderly, as diseases like obesity, diabetes and blood pressure have been increasing among young adults. This is a new reality that needs to be dealt by the health sector, particularly by the public one. Given this scenarios, the importance of finding new and cost effective ways for health care delivery are of particular importance, especially when we believe they should not to be removed from their natural “habitat”. Following this line of thinking, the VirtualECare project will be presented, like similar ones that preceded it. Recently we have also assisted to a growing interest in combining the advances in information society - computing, telecommunications and presentation – in order to create Group Decision Support Systems (GDSS). Indeed, the new economy, along with increased competition in today’s complex business environments, takes the companies to seek complementarities in order to increase competitiveness and reduce risks. Under these scenarios, planning takes a major role in a company life. However, effective planning depends on the generation and analysis of ideas (innovative or not) and, as a result, the idea generation and management processes are crucial. Our objective is to apply the above presented GDSS to a new area. We believe that the use of GDSS in the healthcare arena will allow professionals to achieve better results in the analysis of one’s Electronically Clinical Profile (ECP). This achievement is vital, regarding the explosion of knowledge and skills, together with the need to use limited resources and get better results.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O movimento de afirmação eXtensible Business Reporting Language (XBRL), como padrão para a preparação e difusão dos relatórios financeiros e outras publicações empresariais, foi encabeçado pelo American lnstitute of Certified Public Accountants (AICPA) em conjunto com aproximadatnente outras 30 organizações. Desde o primeiro encontro internacional sobre a especificação XBRL, realizado em Nova York no mês de Outubro de 1999, que a lista de participantes se tem alargado incluindo proeminentes instituições financeiras, organizações profissionais de serviços, organizações profissionais de contabilidade e fornecedores de tecnologia sobrevindo, ao mesmo tempo, um incontável número de alianças e ligações. A XBRL é uma linguagem standard utilizada no ambiente da Internet cujo desenvolvimento permitirá obter uma informação de melhor qualidade, mais rápida, mais económica e mais eficaz, para o processo de criação e publicação de relatórios financeiros e empresariais. Neste artigo os autores apresentam, resumidamente, as vantagens referidas pela literatura para esta nova tecnologia, descrevem sumariamente as características técnicas da XBRL, traçam o seu percurso desde 1999 e analisam o potencial deste standard para Portugal, bem como a sua aplicação em diferentes áreas de investigação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A navegação de veículos autónomos em ambientes não estruturados continua a ser um problema em aberto. A complexidade do mundo real ainda é um desafio. A difícil caracterização do relevo irregular, dos objectos dinâmicos e pouco distintos(e a inexistência de referências de localização) tem sido alvo de estudo e do desenvolvimento de vários métodos que permitam de uma forma eficiente, e em tempo real, modelizar o espaço tridimensional. O trabalho realizado ao longo desta dissertação insere-se na estratégia do Laboratório de Sistemas Autónomos (LSA) na pesquisa e desenvolvimento de sistemas sensoriais que possibilitem o aumento da capacidade de percepção das plataformas robóticas. O desenvolvimento de um sistema de modelização tridimensional visa acrescentar aos projectos LINCE (Land INtelligent Cooperative Explorer) e TIGRE (Terrestrial Intelligent General proposed Robot Explorer) maior autonomia e capacidade de exploração e mapeamento. Apresentamos alguns sensores utilizados para a aquisição de modelos tridimensionais, bem como alguns dos métodos mais utilizados para o processo de mapeamento, e a sua aplicação em plataformas robóticas. Ao longo desta dissertação são apresentadas e validadas técnicas que permitem a obtenção de modelos tridimensionais. É abordado o problema de analisar a cor e geometria dos objectos, e da criação de modelos realistas que os representam. Desenvolvemos um sistema que nos permite a obtenção de dados volumétricos tridimensionais, a partir de múltiplas leituras de um Laser Range Finder bidimensional de médio alcance. Aos conjuntos de dados resultantes associamos numa nuvem de pontos coerente e referenciada. Foram desenvolvidas e implementadas técnicas de segmentação que permitem inspeccionar uma nuvem de pontos e classifica-la quanto às suas características geométricas, bem como ao tipo de estruturas que representem. São apresentadas algumas técnicas para a criação de Mapas de Elevação Digital, tendo sido desenvolvida um novo método que tira partido da segmentação efectuada

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A sociedade contemporânea tem acompanhado a evolução da Internet, ligando cada vez mais pessoas que exigem mais dela a cada dia que passa e desencadeando uma proliferação tecnológica nunca antes observada. A utilização de recursos, como vídeo e áudio na Internet, tem ganho nos últimos anos um crescente interesse. No entanto, constata-se a carência ou falta de recursos educativos digitais na área do áudio, que sejam capazes de apresentar uma pedagogia eficiente face a um tema muito complexo e extenso, para todos aqueles que queiram aprender de forma mais aprofundada o áudio como componente de engenharia. Na internet, sites de vídeos como Youtube ensinam a usar software de edição de áudio como Audacity, conceitos sobre som e áudio. Contudo, todos estão espalhados, sendo que a maior parte deles não possui fundamentos científicos ou uma bibliografia que acompanhe os conteúdos que leccionam. A proposta desta investigação é pesquisar sobre conhecimentos e recursos de áudio, integrando-os num produto Learning Object, Investigar noções teóricas sobre o som, equipamentos e técnicas usadas na área, assim como obter melhores resultados num espaço para a gravação que o aluno poderia fazer, aglomerando esses conceitos num protótipo mediamente desenvolvido. Foi necessária uma investigação extensa nesta área e avaliar e investigar a possibilidade de um recurso educativo, como o DALCH, capaz de proporcionar uma aprendizagem efectiva dos conceitos relacionados com áudio, que é um conceito complexo. Uma vez realizada essa investigação, foi necessário desenvolver, testar e avaliar um produto Learning Object, que apresentasse o áudio na sua globalidade, desde conceitos básicos até conceitos inerentes à própria produção. Foi possível aferir que esta solução pode contribuir para a formação desses alunos mediante uma experiência de aprendizagem agradável e intuitiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução Hoje em dia, o conceito de ontologia (Especificação explícita de uma conceptualização [Gruber, 1993]) é um conceito chave em sistemas baseados em conhecimento em geral e na Web Semântica em particular. Entretanto, os agentes de software nem sempre concordam com a mesma conceptualização, justificando assim a existência de diversas ontologias, mesmo que tratando o mesmo domínio de discurso. Para resolver/minimizar o problema de interoperabilidade entre estes agentes, o mapeamento de ontologias provou ser uma boa solução. O mapeamento de ontologias é o processo onde são especificadas relações semânticas entre entidades da ontologia origem e destino ao nível conceptual, e que por sua vez podem ser utilizados para transformar instâncias baseadas na ontologia origem em instâncias baseadas na ontologia destino. Motivação Num ambiente dinâmico como a Web Semântica, os agentes alteram não só os seus dados mas também a sua estrutura e semântica (ontologias). Este processo, denominado evolução de ontologias, pode ser definido como uma adaptação temporal da ontologia através de alterações que surgem no domínio ou nos objectivos da própria ontologia, e da gestão consistente dessas alterações [Stojanovic, 2004], podendo por vezes deixar o documento de mapeamento inconsistente. Em ambientes heterogéneos onde a interoperabilidade entre sistemas depende do documento de mapeamento, este deve reflectir as alterações efectuadas nas ontologias, existindo neste caso duas soluções: (i) gerar um novo documento de mapeamento (processo exigente em termos de tempo e recursos computacionais) ou (ii) adaptar o documento de mapeamento, corrigindo relações semânticas inválidas e criar novas relações se forem necessárias (processo menos existente em termos de tempo e recursos computacionais, mas muito dependente da informação sobre as alterações efectuadas). O principal objectivo deste trabalho é a análise, especificação e desenvolvimento do processo de evolução do documento de mapeamento de forma a reflectir as alterações efectuadas durante o processo de evolução de ontologias. Contexto Este trabalho foi desenvolvido no contexto do MAFRA Toolkit1. O MAFRA (MApping FRAmework) Toolkit é uma aplicação desenvolvida no GECAD2 que permite a especificação declarativa de relações semânticas entre entidades de uma ontologia origem e outra de destino, utilizando os seguintes componentes principais: Concept Bridge – Representa uma relação semântica entre um conceito de origem e um de destino; Property Bridge – Representa uma relação semântica entre uma ou mais propriedades de origem e uma ou mais propriedades de destino; Service – São aplicados às Semantic Bridges (Property e Concept Bridges) definindo como as instâncias origem devem ser transformadas em instâncias de destino. Estes conceitos estão especificados na ontologia SBO (Semantic Bridge Ontology) [Silva, 2004]. No contexto deste trabalho, um documento de mapeamento é uma instanciação do SBO, contendo relações semânticas entre entidades da ontologia de origem e da ontologia de destino. Processo de evolução do mapeamento O processo de evolução de mapeamento é o processo onde as entidades do documento de mapeamento são adaptadas, reflectindo eventuais alterações nas ontologias mapeadas, tentando o quanto possível preservar a semântica das relações semântica especificadas. Se as ontologias origem e/ou destino sofrerem alterações, algumas relações semânticas podem tornar-se inválidas, ou novas relações serão necessárias, sendo por isso este processo composto por dois sub-processos: (i) correcção de relações semânticas e (ii) processamento de novas entidades das ontologias. O processamento de novas entidades das ontologias requer a descoberta e cálculo de semelhanças entre entidades e a especificação de relações de acordo com a ontologia/linguagem SBO. Estas fases (“similarity measure” e “semantic bridging”) são implementadas no MAFRA Toolkit, sendo o processo (semi-) automático de mapeamento de ontologias descrito em [Silva, 2004].O processo de correcção de entidades SBO inválidas requer um bom conhecimento da ontologia/linguagem SBO, das suas entidades e relações, e de todas as suas restrições, i.e. da sua estrutura e semântica. Este procedimento consiste em (i) identificar as entidades SBO inválidas, (ii) a causa da sua invalidez e (iii) corrigi-las da melhor forma possível. Nesta fase foi utilizada informação vinda do processo de evolução das ontologias com o objectivo de melhorar a qualidade de todo o processo. Conclusões Para além do processo de evolução do mapeamento desenvolvido, um dos pontos mais importantes deste trabalho foi a aquisição de um conhecimento mais profundo sobre ontologias, processo de evolução de ontologias, mapeamento etc., expansão dos horizontes de conhecimento, adquirindo ainda mais a consciência da complexidade do problema em questão, o que permite antever e perspectivar novos desafios para o futuro.