8 resultados para rédea auxiliar

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis we consider Wiener-Hopf-Hankel operators with Fourier symbols in the class of almost periodic, semi-almost periodic and piecewise almost periodic functions. In the first place, we consider Wiener-Hopf-Hankel operators acting between L2 Lebesgue spaces with possibly different Fourier matrix symbols in the Wiener-Hopf and in the Hankel operators. In the second place, we consider these operators with equal Fourier symbols and acting between weighted Lebesgue spaces Lp(R;w), where 1 < p < 1 and w belongs to a subclass of Muckenhoupt weights. In addition, singular integral operators with Carleman shift and almost periodic coefficients are also object of study. The main purpose of this thesis is to obtain regularity properties characterizations of those classes of operators. By regularity properties we mean those that depend on the kernel and cokernel of the operator. The main techniques used are the equivalence relations between operators and the factorization theory. An invertibility characterization for the Wiener-Hopf-Hankel operators with symbols belonging to the Wiener subclass of almost periodic functions APW is obtained, assuming that a particular matrix function admits a numerical range bounded away from zero and based on the values of a certain mean motion. For Wiener-Hopf-Hankel operators acting between L2-spaces and with possibly different AP symbols, criteria for the semi-Fredholm property and for one-sided and both-sided invertibility are obtained and the inverses for all possible cases are exhibited. For such results, a new type of AP factorization is introduced. Singular integral operators with Carleman shift and scalar almost periodic coefficients are also studied. Considering an auxiliar and simpler operator, and using appropriate factorizations, the dimensions of the kernels and cokernels of those operators are obtained. For Wiener-Hopf-Hankel operators with (possibly different) SAP and PAP matrix symbols and acting between L2-spaces, criteria for the Fredholm property are presented as well as the sum of the Fredholm indices of the Wiener-Hopf plus Hankel and Wiener-Hopf minus Hankel operators. By studying dependencies between different matrix Fourier symbols of Wiener-Hopf plus Hankel operators acting between L2-spaces, results about the kernel and cokernel of those operators are derived. For Wiener-Hopf-Hankel operators acting between weighted Lebesgue spaces, Lp(R;w), a study is made considering equal scalar Fourier symbols in the Wiener-Hopf and in the Hankel operators and belonging to the classes of APp;w, SAPp;w and PAPp;w. It is obtained an invertibility characterization for Wiener-Hopf plus Hankel operators with APp;w symbols. In the cases for which the Fourier symbols of the operators belong to SAPp;w and PAPp;w, it is obtained semi-Fredholm criteria for Wiener-Hopf-Hankel operators as well as formulas for the Fredholm indices of those operators.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente tese investiga o processo de tomada de decisão na gestão de cadeias de abastecimento, utilizando um quadro de análise de opções reais. Especificamente, estudamos tópicos como o nível de inventário ideal para protecção contra a incerteza da procura, o momento para implementação de capacidade flexível em mercados onde existe complexidade no mix de produtos, o tempo para o reforço do factor trabalho visando requisitos de serviço ao mercado, e as decisões entre integração e outsourcing num ambiente de incerteza. Foram usadas metodologias de tempo discreto e contínuo para identificar o valor ideal e o calendário das opções a adoptar, quando a procura é estocástica. Além disso, foram considerados os efeitos dos requisitos dos mercados, como a complexidade na oferta de produtos e o nível de serviço. A procura é representada recorrendo a diferentes processos estocásticos, o impacto de saltos inesperados também é explorado, reforçando a generalização dos modelos a diferentes condições de negócio. A aplicabilidade dos modelos que apresentamos permite a diversificação e o enriquecimento da literatura sobre a abordagem de opções reais, no âmbito das cadeias de abastecimento. Níveis de inventário flexíveis e capacidades flexíveis são característicos das cadeias de abastecimento e podem ser usados como resposta à incerteza do mercado. Esta tese é constituída por ensaios que suportam a aplicação dos modelos, e consiste num capítulo introdutório (designado por ensaio I) e mais seis ensaios sobre factores que discutem o uso de medidas de flexibilidade nas cadeias de abastecimento, em ambientes de incerteza, e um último ensaio sobre a extensão do conceito de flexibilidade ao tratamento da avaliação de planos de negócio. O segundo ensaio que apresentamos é sobre o valor do inventário num único estádio, enquanto medida de flexibilidade, sujeita ao crescente condicionalismo dos custos com posse de activos. Introduzimos uma nova classificação de artigos para suportar o indicador designado por overstock. No terceiro e quarto ensaio ampliamos a exploração do conceito de overstock, promovendo a interacção e o balanceamento entre vários estádios de uma cadeia de abastecimento, como forma de melhorar o desempenho global. Para sustentar a aplicação prática das abordagens, adaptamos o ensaio número três à gestão do desempenho, para suportar o estabelecimento de metas coordenadas e alinhadas; e adaptamos o quarto ensaio à coordenação das cadeias de abastecimento, como auxiliar ao planeamento integrado e sequencial dos níveis de inventário. No ensaio cinco analisamos o factor de produção “tecnologia”, em relação directa com a oferta de produtos de uma empresa, explorando o conceito de investimento, como medida de flexibilidade nas componentes de volume da procura e gama de produtos. Dedicamos o ensaio número seis à análise do factor de produção “Mão-de-Obra”, explorando as condicionantes para aumento do número de turnos na perspectiva económica e determinando o ponto crítico para a tomada de decisão em ambientes de incerteza. No ensaio número sete exploramos o conceito de internalização de operações, demarcando a nossa análise das demais pela definição do momento crítico que suporta a tomada de decisão em ambientes dinâmicos. Complementamos a análise com a introdução de factores temporais de perturbação, nomeadamente, o estádio de preparação necessário e anterior a uma eventual alteração de estratégia. Finalmente, no último ensaio, estendemos a análise da flexibilidade em ambientes de incerteza ao conceito de planos de negócio. Em concreto, exploramos a influência do número de pontos de decisão na flexibilidade de um plano, como resposta à crescente incerteza dos mercados. A título de exemplo, usamos o mecanismo de gestão sequencial do orçamento para suportar o nosso modelo. A crescente incerteza da procura obrigou a um aumento da agilidade e da flexibilidade das cadeias de abastecimento, limitando o uso de muitas das técnicas tradicionais de suporte à gestão, pela incapacidade de incorporarem os efeitos da incerteza. A flexibilidade é claramente uma vantagem competitiva das empresas que deve, por isso, ser quantificada. Com os modelos apresentados e com base nos resultados analisados, pretendemos demonstrar a utilidade da consideração da incerteza nos instrumentos de gestão, usando exemplos numéricos para suportar a aplicação dos modelos, o que claramente promove a aproximação dos desenvolvimentos aqui apresentados às práticas de negócio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A engenharia de tecidos é um domínio tecnológico emergente em rápido desenvolvimento que se destina a produzir substitutos viáveis para a restauração, manutenção ou melhoria da função dos tecidos ou órgãos humanos. Uma das estratégias mais predominantes em engenharia de tecidos envolve crescimento celular sobre matrizes de suporte (scaffolds), biocompatíveis e biodegradáveis. Estas matrizes devem possuir não só elevadas propriedades mecânicas e vasculares, mas também uma elevada porosidade. Devido à incompatibilidade destes dois parâmetros, é necessário desenvolver estratégias de simulação de forma a obter estruturas optimizadas. A previsão real das propriedades mecânicas, vasculares e topológicas das matrizes de suporte, produzidas por técnicas de biofabricação, é muito importante para as diversas aplicações em engenharia de tecidos. A presente dissertação apresenta o estado da arte da engenharia de tecidos, bem como as técnicas de biofabricação envolvidas na produção de matrizes de suporte. Para o design optimizado de matrizes de suporte foi adoptada uma metodologia de design baseada tanto em métodos de elementos finitos para o cálculo do comportamento mecânico, vascular e as optimizações topológicas, como em métodos analíticos para a validação das simulações estruturais utilizando dados experimentais. Considerando que as matrizes de suporte são estruturas elementares do tipo LEGO, dois tipos de famílias foram consideradas, superfícies não periódicas e as superfícies triplas periódicas que descrevem superfícies naturais. Os objectivos principais desta dissertação são: i) avaliar as técnicas existentes de engenharia de tecidos; ii) avaliar as técnicas existentes de biofabricação para a produção de matrizes de suporte; iii) avaliar o desempenho e comportamento das matrizes de suporte; iv) implementar uma metodologia de design de matrizes de suporte em variáveis tais como a porosidade, geometria e comportamento mecânico e vascular por forma a auxiliar o processo de design; e por fim, v) validar experimentalmente a metodologia adoptada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho pretende auxiliar o processo de consolidação do conceito de sustentabilidade no seio das organizações. Partindo de ferramentas de gestão e avaliação já existentes, esta tese sugere a sua integração numa única metodologia, ultrapassando desse modo as limitações e potenciando as suas capacidades enquanto ferramentas isoladas. O modelo proposto para o Sistema de Gestão da Sustentabilidade (SGS) integra assim: o conceito de melhoria contínua característico dos sistemas de gestão normalizados; a capacidade de tradução da perspetiva estratégica da gestão para o plano operacional, característica do Business Scorecard (BSC); e, por fim, a avaliação emergética é ainda utilizada como uma ferramenta de avaliação da sustentabilidade de sistemas. Um objetivo secundário desta tese prende-se com o desenvolvimento de um procedimento para a realização da análise emergética de um sistema. Depois de analisada a literatura referente à utilização da análise emergética, identificou-se como necessária a definição de um procedimento normalizado, adotando um conjunto de tarefas e um formato de apresentação de resultados que permita disseminar o conceito e tornar a ferramenta mais “utilizável”. Por outro lado, procurou-se dotar o procedimento com um conjunto de indicações que permitem ultrapassar limitações e inconvenientes apontados pelos críticos mas também utilizadores do método, nomeadamente: problemas de dupla contagem, cálculo da incerteza da análise e critérios de qualidade da informação utilizada. O modelo dos sistemas de gestão normalizados apresenta um papel central na metodologia proposta. O conceito de “melhoria contínua” afigura-se como fundamental num sistema que pretende implementar o conceito “desenvolvimento sustentável” e avaliar o seu desempenho à luz do mesmo. Assim, o ciclo Plan-Do-check-Act (PDCA) deve ser utilizado para implementar o SGS de acordo com uma Política para a Sustentabilidade que a organização deve desenvolver. Definida a Política, o modelo baseia-se então no ciclo PDCA: fase de planeamento; fase de implementação; fase de verificação; e fase de revisão. É na fase de planeamento do SGS que se sugere a introdução das outras duas ferramentas: a análise emergética (AEm) e o BSC. A fase de planeamento do modelo de SGS proposto neste trabalho foi aplicada à Universidade de Aveiro (UA), incluindo a definição de uma Política para a Sustentabilidade e o planeamento estratégico e operacional. A avaliação emergética à UA foi realizada recorrendo ao procedimento desenvolvido nesta tese e permitiu caracterizar e avaliar os fluxos de recursos que a “alimentam” sob uma só unidade, atribuindo deste modo graus de importância aos diferentes recursos utilizados. A informação representa 96% do total de recursos utilizados na UA, quando avaliados sob o ponto de vista emergética. Para além da informação, os fluxos financeiros representam a maior fatia do orçamento emergético da UA, grande parte dos quais serve para sustentar os serviços prestados pelo corpo docente da UA. Analisando valores históricos de 3 indicadores de desempenho emergético, observa-se que a UA não regista uma evolução positiva em nenhum dos indicadores: a emergia utilizada nos edifícios tem-se mantido mais ou menos constante; a retribuição emergética da UA para a sociedade, avaliada sobre a forma de diplomados, tem diminuído; e a relação emergética entre professores e alunos tem também diminuído, facto que pode refletir-se na qualidade dos “produtos” da UA. Da aplicação do SGS à UA regista-se: a adequabilidade do ciclo PDCA à implementação de um SGS; a capacidade da AEm “obrigar” a organização a adotar uma abordagem sistémica da sua atividade, resultando numa visão mais aprofundada da sua relação com o contexto ambiental, económico e social em que se insere; a importância da visão estratégica e da sua tradução em termos operacionais na fase de planeamento de um SGS; e, por fim, a capacidade de adaptação e dupla funcionalidade (implementação e avaliação) do modelo de SGS proposto. A metodologia de SGS proposta nesta tese, sendo direcionada para todo o tipo de organizações, não se desvirtua quando aplicada ao contexto específico das instituições de ensino superior e permite implementar e avaliar o conceito “desenvolvimento sustentável” nas quatro dimensões da universidade (Educação, Investigação, Operação; Relação com as partes interessadas).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The introduction of chemicals into the environment by human activities may represent a serious risk to environmental and human health. Environmental risk assessment requires the use of efficient and sensitive tools to determine the impact of contaminants on the ecosystems. The use of zebrafish for the toxicity assessment of pharmaceuticals, drugs, and pollutants, is becoming well accepted due to zebrafish unique advantages for the screening of compounds for hazard identification. The aim of the present work is to apply toxicogenomic approaches to identify novel biomarkers and uncovered potential modes of action of classic and emergent contaminants able to disrupt endocrine systems, such as the Retinoic Acid Receptor, Retinoid X Receptor and the Aryl Hydrocarbon Receptor. This study relies on different nuclear and cytosolic protein receptors and other conditional (ligand- or stress- activated) transcriptional factors that are intimately involved in the regulation of defensome genes and in mechanisms of chemical toxicity. The transcriptomic effects of organic compounds, endogenous compounds, and nanoparticles were analysed during the early stages of zebrafish development. Studying the gene expression profiles of exposed and unexposed organisms to pollutants using microarrays allowed the identification of specific gene markers and to establish a "genetic code" for the tested compounds. Changes in gene expression were observed at toxicant concentrations that did not cause morphological effects. Even at low toxicant concentrations, the observed changes in transcript levels were robust for some target genes. Microarray responses of selected genes were further complemented by the real time quantitative polymerase chain reaction (qRT-PCR) methodology. The combination of bio-informatic, toxicological analyses of differential gene expression profiles, and biochemical and phenotypic responses across the treatments allowed the identification of uncovered potential mechanisms of action. In addition, this work provides an integrated set of tools that can be used to aid management-decision making by improving the predictive capability to measure environmental stress of contaminants in freshwater ecosystems. This study also illustrates the potential of zebrafish embryos for the systematic, large-scale analysis of chemical effects on developing vertebrates.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The rapid evolution and proliferation of a world-wide computerized network, the Internet, resulted in an overwhelming and constantly growing amount of publicly available data and information, a fact that was also verified in biomedicine. However, the lack of structure of textual data inhibits its direct processing by computational solutions. Information extraction is the task of text mining that intends to automatically collect information from unstructured text data sources. The goal of the work described in this thesis was to build innovative solutions for biomedical information extraction from scientific literature, through the development of simple software artifacts for developers and biocurators, delivering more accurate, usable and faster results. We started by tackling named entity recognition - a crucial initial task - with the development of Gimli, a machine-learning-based solution that follows an incremental approach to optimize extracted linguistic characteristics for each concept type. Afterwards, Totum was built to harmonize concept names provided by heterogeneous systems, delivering a robust solution with improved performance results. Such approach takes advantage of heterogenous corpora to deliver cross-corpus harmonization that is not constrained to specific characteristics. Since previous solutions do not provide links to knowledge bases, Neji was built to streamline the development of complex and custom solutions for biomedical concept name recognition and normalization. This was achieved through a modular and flexible framework focused on speed and performance, integrating a large amount of processing modules optimized for the biomedical domain. To offer on-demand heterogenous biomedical concept identification, we developed BeCAS, a web application, service and widget. We also tackled relation mining by developing TrigNER, a machine-learning-based solution for biomedical event trigger recognition, which applies an automatic algorithm to obtain the best linguistic features and model parameters for each event type. Finally, in order to assist biocurators, Egas was developed to support rapid, interactive and real-time collaborative curation of biomedical documents, through manual and automatic in-line annotation of concepts and relations. Overall, the research work presented in this thesis contributed to a more accurate update of current biomedical knowledge bases, towards improved hypothesis generation and knowledge discovery.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The development of computed tomography systems with energy resolving detectors is a current challenge in medical physics and biomedical engineering. A computed tomography system of this kind allows getting complementary informations relatively to conventional systems, that can help the medical diagnosis, being of great interest in medicine. The work described in this thesis is related to the development of a computed tomography system using micropattern gaseous detectors, which allow storing, simultaneously, information about the interaction position and the energy of each single photon that interacts with the detector. This kind of detectors has other advantages concerning the cost and characteristics of operation when compared with solid state detectors. Tomographic acquisitions were performed using a MicroHole & Strip Plate based detector, which allowed reconstructing cross-sectional images using energy windows, applying the energy weighting technique and performing multi-slice and tri-dimensional reconstructions. The contrast-to-noise ratio was improved by 31% by applying the energy weighting technique, comparing with the corresponding image obtained with the current medical systems. A prototype of a computed tomography with flexibility to change the detector was developed, making it possible to apply different detectors based on Thick-COBRA. Several images acquired with these detectors are presented and demonstrate their applicability in X-ray imaging. When operating in NeCH4, the detector allowed a charge gain of 8 104, an energy resolution of 20% (full width at half maximum at 8 keV), a count rate of 1 106 Hz/mm2, a very stable operation (gain fluctuations below 5%) and a spacial resolution of 1.2 mm for an energy photon of 3.6 keV. Operating the detector in pure Kr allowed increasing the detection efficiency and achieving a charge gain of 2 104, an energy resolution of 32% (full width at half maximum at 22 keV), a count rate of 1 105 Hz/mm2, very stable operation and a spatial resolution of 500 m. The software already existing in the group was improved and tools to correct geometric misalignments of the system were also developed. The reconstructions obtained after geometrical correction are free of artefacts due to the referred misalignments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

When developing software for autonomous mobile robots, one has to inevitably tackle some kind of perception. Moreover, when dealing with agents that possess some level of reasoning for executing their actions, there is the need to model the environment and the robot internal state in a way that it represents the scenario in which the robot operates. Inserted in the ATRI group, part of the IEETA research unit at Aveiro University, this work uses two of the projects of the group as test bed, particularly in the scenario of robotic soccer with real robots. With the main objective of developing algorithms for sensor and information fusion that could be used e ectively on these teams, several state of the art approaches were studied, implemented and adapted to each of the robot types. Within the MSL RoboCup team CAMBADA, the main focus was the perception of ball and obstacles, with the creation of models capable of providing extended information so that the reasoning of the robot can be ever more e ective. To achieve it, several methodologies were analyzed, implemented, compared and improved. Concerning the ball, an analysis of ltering methodologies for stabilization of its position and estimation of its velocity was performed. Also, with the goal keeper in mind, work has been done to provide it with information of aerial balls. As for obstacles, a new de nition of the way they are perceived by the vision and the type of information provided was created, as well as a methodology for identifying which of the obstacles are team mates. Also, a tracking algorithm was developed, which ultimately assigned each of the obstacles a unique identi er. Associated with the improvement of the obstacles perception, a new algorithm of estimating reactive obstacle avoidance was created. In the context of the SPL RoboCup team Portuguese Team, besides the inevitable adaptation of many of the algorithms already developed for sensor and information fusion and considering that it was recently created, the objective was to create a sustainable software architecture that could be the base for future modular development. The software architecture created is based on a series of di erent processes and the means of communication among them. All processes were created or adapted for the new architecture and a base set of roles and behaviors was de ned during this work to achieve a base functional framework. In terms of perception, the main focus was to de ne a projection model and camera pose extraction that could provide information in metric coordinates. The second main objective was to adapt the CAMBADA localization algorithm to work on the NAO robots, considering all the limitations it presents when comparing to the MSL team, especially in terms of computational resources. A set of support tools were developed or improved in order to support the test and development in both teams. In general, the work developed during this thesis improved the performance of the teams during play and also the e ectiveness of the developers team when in development and test phases.