961 resultados para metadata schemes
Resumo:
Plain radiography still accounts for the vast majority of imaging studies that are performed at multiple clinical instances. Digital detectors are now prominent in many imaging facilities and they are the main driving force towards filmless environments. There has been a working paradigm shift due to the functional separation of acquisition, visualization, and storage with deep impact in the imaging workflows. Moreover with direct digital detectors images are made available almost immediately. Digital radiology is now completely integrated in Picture Archiving and Communication System (PACS) environments governed by the Digital Imaging and Communications in Medicine (DICOM) standard. In this chapter a brief overview of PACS architectures and components is presented together with a necessarily brief account of the DICOM standard. Special focus is given to the DICOM digital radiology objects and how specific attributes may now be used to improve and increase the metadata repository associated with image data. Regular scrutiny of the metadata repository may serve as a valuable tool for improved, cost-effective, and multidimensional quality control procedures.
Resumo:
Tribimaximal leptonic mixing is a mass-independent mixing scheme consistent with the present solar and atmospheric neutrino data. By conveniently decomposing the effective neutrino mass matrix associated to it, we derive generic predictions in terms of the parameters governing the neutrino masses. We extend this phenomenological analysis to other mass-independent mixing schemes which are related to the tribimaximal form by a unitary transformation. We classify models that produce tribimaximal leptonic mixing through the group structure of their family symmetries in order to point out that there is often a direct connection between the group structure and the phenomenological analysis. The type of seesaw mechanism responsible for neutrino masses plays a role here, as it restricts the choices of family representations and affects the viability of leptogenesis. We also present a recipe to generalize a given tribimaximal model to an associated model with a different mass-independent mixing scheme, which preserves the connection between the group structure and phenomenology as in the original model. This procedure is explicitly illustrated by constructing toy models with the transpose tribimaximal, bimaximal, golden ratio, and hexagonal leptonic mixing patterns.
Resumo:
Personal memories composed of digital pictures are very popular at the moment. To retrieve these media items annotation is required. During the last years, several approaches have been proposed in order to overcome the image annotation problem. This paper presents our proposals to address this problem. Automatic and semi-automatic learning methods for semantic concepts are presented. The automatic method is based on semantic concepts estimated using visual content, context metadata and audio information. The semi-automatic method is based on results provided by a computer game. The paper describes our proposals and presents their evaluations.
Resumo:
The design and development of simulation models and tools for Demand Response (DR) programs are becoming more and more important for adequately taking the maximum advantages of DR programs use. Moreover, a more active consumers’ participation in DR programs can help improving the system reliability and decrease or defer the required investments. DemSi, a DR simulator, designed and implemented by the authors of this paper, allows studying DR actions and schemes in distribution networks. It undertakes the technical validation of the solution using realistic network simulation based on PSCAD. DemSi considers the players involved in DR actions, and the results can be analyzed from each specific player point of view.
Resumo:
Dissertação apresentada à Escola Superior de Educação de Lisboa para obtenção de grau de mestre em Ciências da Educação, especialização Supervisão em Educação
Resumo:
In competitive electricity markets with deep concerns for the efficiency level, demand response programs gain considerable significance. As demand response levels have decreased after the introduction of competition in the power industry, new approaches are required to take full advantage of demand response opportunities. This paper presents DemSi, a demand response simulator that allows studying demand response actions and schemes in distribution networks. It undertakes the technical validation of the solution using realistic network simulation based on PSCAD. The use of DemSi by a retailer in a situation of energy shortage, is presented. Load reduction is obtained using a consumer based price elasticity approach supported by real time pricing. Non-linear programming is used to maximize the retailer’s profit, determining the optimal solution for each envisaged load reduction. The solution determines the price variations considering two different approaches, price variations determined for each individual consumer or for each consumer type, allowing to prove that the approach used does not significantly influence the retailer’s profit. The paper presents a case study in a 33 bus distribution network with 5 distinct consumer types. The obtained results and conclusions show the adequacy of the used methodology and its importance for supporting retailers’ decision making.
Resumo:
Demand response can play a very relevant role in future power systems in which distributed generation can help to assure service continuity in some fault situations. This paper deals with the demand response concept and discusses its use in the context of competitive electricity markets and intensive use of distributed generation. The paper presents DemSi, a demand response simulator that allows studying demand response actions and schemes using a realistic network simulation based on PSCAD. Demand response opportunities are used in an optimized way considering flexible contracts between consumers and suppliers. A case study evidences the advantages of using flexible contracts and optimizing the available generation when there is a lack of supply.
Resumo:
Mestrado em Contabilidade
Resumo:
Mestrado em Engenharia Electrotécnica – Sistemas Eléctricos de Energia
Resumo:
Low-density parity-check (LDPC) codes are nowadays one of the hottest topics in coding theory, notably due to their advantages in terms of bit error rate performance and low complexity. In order to exploit the potential of the Wyner-Ziv coding paradigm, practical distributed video coding (DVC) schemes should use powerful error correcting codes with near-capacity performance. In this paper, new ways to design LDPC codes for the DVC paradigm are proposed and studied. The new LDPC solutions rely on merging parity-check nodes, which corresponds to reduce the number of rows in the parity-check matrix. This allows to change gracefully the compression ratio of the source (DCT coefficient bitplane) according to the correlation between the original and the side information. The proposed LDPC codes reach a good performance for a wide range of source correlations and achieve a better RD performance when compared to the popular turbo codes.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
A empresa Petibol, S.A. – Embalagens de plástico centra-se na produção de embalagens de plástico a partir da matéria-prima Poliestireno Expandido (EPS) e Polipropileno Expandido (EPP). A empresa possui uma preocupação ao nível da qualidade da água e do aproveitamento energético, tendo desta forma surgido a realização do estudo na unidade industrial, com o objectivo de anular e/ou diminuir as possíveis lacunas existentes na unidade industrial. Numa primeira etapa foi realizada uma caracterização global à qualidade da água e à empresa, actualizando-se os esquemas já existentes, contabilizando-se os custos actuais relativamente aos processos no circuito da água (arrefecimento, aquecimento e pressurização), e por fim, efectuou-se um levantamento in loco do circuito de água, relativamente à pressão, temperatura e caudal. Numa fase posterior, foram propostos equipamentos e processos, tendo em vista a colmatação dos problemas identificados, realizando-se um subsequente estudo relativamente aos custos inerentes a esses novos processos. A caracterização à água foi avaliada em diferentes pontos do circuito industrial, tendo-se determinado na Sala de Bombagem que o filtro de areia não possuía as dimensões mais apropriadas, existindo também um problema a nível mecânico associado ao processo de contra-lavagem. Tais factos podem ser a causa da ocorrência de um aumento do teor de sólidos após a passagem na camada filtrante. Relativamente ao amaciador, este deveria amaciar de forma completa a água para alimentação à caldeira, embora se tenha registado à saída do amaciador uma dureza de 21,3 mg/L, denunciando problemas na troca iónica. No que toca à água de alimentação à caldeira, verifica-se a existência de parâmetros que não se encontram de acordo com os critérios enunciados para uma óptima qualidade, sendo eles o pH (10,14), condutividade (363 μS/cm), teor de ferro (1,21 mg/L) e a dureza (16 mg/L). De salientar que somente o teor de cobre, que se encontra em quantidades vestigiais, apresenta-se de acordo com os valores impostos. No que respeita à água da caldeira, esta apresenta parâmetros incompatíveis com os recomendados, sendo eles a condutividade (7350 μS/cm), teor de sólidos dissolvidos (5248 mg/L) e alcalinidade total (780 mg/L). De referir que o valor de pH (11,8) não se encontra de acordo com a aplicação do tratamento “fosfato-pH coordenado”. Em relação aos parâmetros com valores que se encontram dentro dos limites, estes correspondem à dureza (0 mg/L), ao teor de fosfatos (45 mg/L) e teor de sílica (0 mg/L). A água do circuito de arrefecimento foi sujeita a uma análise microbiológica, que corroborou a presença de um biofilme. Um dos problemas enunciados pela empresa, prendia-se com a impossibilidade de descarga, no colector municipal, dos condensados dos compressores, visto apresentarem uma quantidade de óleo de cerca de 43,3 mg/L, equivalente a quatro vezes o valor limite de emissão, de acordo com a legislação municipal. Por fim, o efluente de descarga industrial apresenta um valor de pH (10,3) acima do intervalo permitido por lei (6,0 – 9,0), sendo que a corrente que mais contribui para este acréscimo de pH corresponde à corrente proveniente da água de purga, visto esta apresentar um valor de pH de 12,22. De maneira a contornar os parâmetros enunciados, é proposto a substituição do filtro de areia da Sala de Bombagem, assim como a inserção de um conjunto de medidas de remoção de ferro e desinfecção, sendo a conjugação de arejamento, coagulação, filtração e desinfecção, por parte do hipoclorito, a proposta apresentada. Aos condensados dos compressores é apresentado um sistema de separação, que possibilita a remoção do óleo da água, e uma consequente descarga da mesma. Actualmente, não existe qualquer filtro de areia no circuito de arrefecimento da água, sendo proposto assim esse equipamento, de forma a minorar o desenvolvimento da população microbiana, bem como a permitir uma maior eficiência na transferência de calor na torre de arrefecimento. Relativamente à descarga industrial, é recomendável a colocação de um sistema de regularização automática de pH. A inserção de uma válvula de três vias permite um aproveitamento energético e de água, a partir da confluência da água oriunda dos furos com a água do tanque de água fria, sendo posteriormente alimentada à central de vácuo. No estudo da recuperação energética, um outro equipamento avaliado correspondeu à serpentina, no entanto, verificou-se que a poupança no consumo de gás natural era de apenas 0,005%, o que não se mostrou uma proposta viável. O orçamento de todos os equipamentos é de 11.720,76 €, possibilitando não só um melhor funcionamento industrial, como um menor impacto a nível ambiental. Os custos futuros de funcionamento aumentam em 3,36%, tendo a pressurização um aumento do seu custo em 3,4% em relação ao custo actual, verificando-se um custo anual de 10.781,21€, em relação aos processos de arejamento, coagulação e desinfecção.
Resumo:
Web tornou-se uma ferramenta indispensável para a sociedade moderna. A capacidade de aceder a enormes quantidades de informação, disponível em praticamente todo o mundo, é uma grande vantagem para as nossas vidas. No entanto, a quantidade avassaladora de informação disponível torna-se um problema, que é o de encontrar a informação que precisamos no meio de muita informação irrelevante. Para nos ajudar nesta tarefa, foram criados poderosos motores de pesquisa online, que esquadrinham a Web à procura dos melhores resultados, segundo os seus critérios, para os dados que precisamos. Actualmente, os motores de pesquisa em voga, usam um formato de apresentação de resultados simples, que consiste apenas numa caixa de texto para o utilizador inserir as palavras-chave sobre o tema que quer pesquisar e os resultados são dispostos sobre uma lista de hiperligações ordenada pela relevância que o motor atribui a cada resultado. Porém, existem outras formas de apresentar resultados. Uma das alternativas é apresentar os resultados sobre interfaces em 3 dimensões. É nestes tipos de sistemas que este trabalho vai incidir, os motores de pesquisa com interfaces em 3 dimensões. O problema é que as páginas Web não estão preparadas para serem consumidas por este tipo de motores de pesquisa. Para resolver este problema foi construído um modelo generalista para páginas Web, que consegue alimentar os requisitos das diversas variantes destes motores de pesquisa. Foi também desenvolvido um protótipo de instanciação automático, que recolhe as informações necessárias das páginas Web e preenche o modelo.
Resumo:
A cada instante surgem novas soluções de aprendizagem, resultado da evolução tecnológica constante com que nos deparamos. Estas inovações potenciam uma transmissão do conhecimento entre o educador e o educando cada vez mais simplificada, rápida e eficiente. Alguns destes avanços têm em vista a centralização no aluno, através da delegação de tarefas e da disponibilização de conteúdos, investindo na autonomia e na auto-aprendizagem, de modo a que cada aluno crie o seu próprio método de estudo, e evolua gradualmente, com o acompanhamento de um professor ou sistema autónomo de aprendizagem. Com esta investigação, é pretendido fazer um estudo dos métodos de aprendizagem ao longo do tempo até à actualidade, enumerando algumas das ferramentas utilizadas no processo de aprendizagem, indicando os vários benefícios, bem como contrapartidas do uso das mesmas. Será também analisado um caso de estudo baseado numa destas ferramentas, descrevendo o seu funcionamento e modo de interacção entre as várias entidades participantes, apresentando os resultados obtidos. O caso de estudo consistirá na criação de um cenário específico de aprendizagem, na área da saúde, analisando-o em diferentes contextos, e evidenciando as características e benefícios de cada ambiente analisado, no processo aprendizagem. Será então demonstrado como é possível optimizar os processos de aprendizagem, utilizando ferramentas de informatização e automatização desses mesmos processos, de forma tornar o processo de ensino mais célere e eficaz, num ambiente controlável, e com as funcionalidades que a tecnologia actual permite.
Resumo:
Dissertação de Mestrado, Estudos Integrados dos Oceanos, 15 de Março de 2016, Universidade dos Açores.