958 resultados para Soluções alternantes
Resumo:
Durante as ultimas décadas, os registos de saúde eletrónicos (EHR) têm evoluído para se adaptar a novos requisitos. O cidadão tem-se envolvido cada vez mais na prestação dos cuidados médicos, sendo mais pró ativo e desejando potenciar a utilização do seu registo. A mobilidade do cidadão trouxe mais desafios, a existência de dados dispersos, heterogeneidade de sistemas e formatos e grande dificuldade de partilha e comunicação entre os prestadores de serviços. Para responder a estes requisitos, diversas soluções apareceram, maioritariamente baseadas em acordos entre instituições, regiões e países. Estas abordagens são usualmente assentes em cenários federativos muito complexos e fora do controlo do paciente. Abordagens mais recentes, como os registos pessoais de saúde (PHR), permitem o controlo do paciente, mas levantam duvidas da integridade clinica da informação aos profissionais clínicos. Neste cenário os dados saem de redes e sistemas controlados, aumentando o risco de segurança da informação. Assim sendo, são necessárias novas soluções que permitam uma colaboração confiável entre os diversos atores e sistemas. Esta tese apresenta uma solução que permite a colaboração aberta e segura entre todos os atores envolvidos nos cuidados de saúde. Baseia-se numa arquitetura orientada ao serviço, que lida com a informação clínica usando o conceito de envelope fechado. Foi modelada recorrendo aos princípios de funcionalidade e privilégios mínimos, com o propósito de fornecer proteção dos dados durante a transmissão, processamento e armazenamento. O controlo de acesso _e estabelecido por políticas definidas pelo paciente. Cartões de identificação eletrónicos, ou certificados similares são utilizados para a autenticação, permitindo uma inscrição automática. Todos os componentes requerem autenticação mútua e fazem uso de algoritmos de cifragem para garantir a privacidade dos dados. Apresenta-se também um modelo de ameaça para a arquitetura, por forma a analisar se as ameaças possíveis foram mitigadas ou se são necessários mais refinamentos. A solução proposta resolve o problema da mobilidade do paciente e a dispersão de dados, capacitando o cidadão a gerir e a colaborar na criação e manutenção da sua informação de saúde. A arquitetura permite uma colaboração aberta e segura, possibilitando que o paciente tenha registos mais ricos, atualizados e permitindo o surgimento de novas formas de criar e usar informação clínica ou complementar.
Resumo:
Nesta tese de doutoramento apresentamos um cálculo das variações fraccional generalizado. Consideramos problemas variacionais com derivadas e integrais fraccionais generalizados e estudamo-los usando métodos directos e indirectos. Em particular, obtemos condições necessárias de optimalidade de Euler-Lagrange para o problema fundamental e isoperimétrico, condições de transversalidade e teoremas de Noether. Demonstramos a existência de soluções, num espaço de funções apropriado, sob condições do tipo de Tonelli. Terminamos mostrando a existência de valores próprios, e correspondentes funções próprias ortogonais, para problemas de Sturm- Liouville.
Resumo:
Access control is a software engineering challenge in database applications. Currently, there is no satisfactory solution to dynamically implement evolving fine-grained access control mechanisms (FGACM) on business tiers of relational database applications. To tackle this access control gap, we propose an architecture, herein referred to as Dynamic Access Control Architecture (DACA). DACA allows FGACM to be dynamically built and updated at runtime in accordance with the established fine-grained access control policies (FGACP). DACA explores and makes use of Call Level Interfaces (CLI) features to implement FGACM on business tiers. Among the features, we emphasize their performance and their multiple access modes to data residing on relational databases. The different access modes of CLI are wrapped by typed objects driven by FGACM, which are built and updated at runtime. Programmers prescind of traditional access modes of CLI and start using the ones dynamically implemented and updated. DACA comprises three main components: Policy Server (repository of metadata for FGACM), Dynamic Access Control Component (DACC) (business tier component responsible for implementing FGACM) and Policy Manager (broker between DACC and Policy Server). Unlike current approaches, DACA is not dependent on any particular access control model or on any access control policy, this way promoting its applicability to a wide range of different situations. In order to validate DACA, a solution based on Java, Java Database Connectivity (JDBC) and SQL Server was devised and implemented. Two evaluations were carried out. The first one evaluates DACA capability to implement and update FGACM dynamically, at runtime, and, the second one assesses DACA performance against a standard use of JDBC without any FGACM. The collected results show that DACA is an effective approach for implementing evolving FGACM on business tiers based on Call Level Interfaces, in this case JDBC.
Resumo:
Esta tese descreve diversas estratégias preparativas assim como estudos de caracterização de nanocompósitos e outras nanoestruturas, para a análise em espectroscopia de Raman com intensificação por superfície (SERS). Em particular foi estudada a incorporação de nanopartículas (NPs) metálicas de Ag e Au em matrizes poliméricas visando avaliar o potencial destes materiais como novos substratos para SERS na deteção de moléculas. O primeiro capítulo consiste numa revisão bibliográfica, onde é destacado o desenvolvimento de novos substratos para SERS utilizando nomeadamente nanopartículas de Ag, Au e Cu. Numa primeira fase, esta secção apresenta uma breve descrição sobre as propriedades plasmónicas dos metais utilizados e alguns conceitos básicos de espectroscopia de difusão de Raman. Posteriormente, descreve-se em mais detalhe o efeito de SERS, revendo-se sobretudo a química de materiais descrita em trabalhos recentes tendo em conta a sua utilização como novas plataformas para análise química por SERS. O capítulo 2 descreve a síntese e caracterização de nanocompósitos de poli(acrilato de butilo) obtidos através de polimerização in situ por miniemulsão na presença de nanopartículas de Ag. Os nanocompósitos Ag/PtBA foram investigados como novos substratos de SERS visando o desenvolvimento de novas plataformas versáteis para deteção molecular. Estudos como o efeito da temperatura, pH e pressão foram investigados, visando a compreensão do efeito da matriz polimérica na difusão/adsorção do analito (ácido tiossalicílico) na superfície metálica. No capítulo 3, os nanocompósitos de Ag/PtBA descritos anteriormente foram investigados detalhadamente como substratos para bio-deteção em SERS, usando a adenina como analito modelo. Os nanocompósitos foram submetidos a vários tratamentos pré-analíticos para a bio-deteção da adenina. Foram realizadas experiências nos sistemas Ag/PtBA de modo a obter informação sobre o efeito do pH na deteção deste analito em soluções aquosas diluídas. Os nanocompósitos poliméricos obtidos apresentam a vantagem de poderem ser processados utilizando tecnologia disponível. Pelo que o estudo das suas propriedades térmicas é especialmente relevante. Assim, a influência da incorporação de NPs inorgânicas na temperatura de transição vítrea (Tg) do polímero PtBA foi investigada por meio de calorimetria diferencial de varrimento (DSC) e os resultados são apresentados no capítulo 4. Estes estudos descrevem efeitos na Tg do PtBA quando analisado em nanocompósitos obtidos por diferentes métodos (métodos ex situ e in situ), contendo nanopartículas metálicas com diferentes distribuições de tamanho e presentes em quantidade variável na matriz polimérica. Estes estudos possibilitaram relacionar a influência das NPs metálicas na mobilidade das cadeias poliméricas com as propriedades térmicas observadas. O capítulo 5 descreve a preparação e caracterização de materiais compósitos de base polimérica (PtBA) e NPs de Au com morfologia de bastonetes (NRs). Estes materiais foram investigados como substratos para SERS tendo originado um bom sinal de SERS na análise de 2-2’-ditiodipiridina. Investigouse igualmente o efeito da variação da morfologia das NPs metálicas (esferas e bastonetes), a razão de aspecto (R.A.) dos bastonetes e o tipo de matriz polimérica (PtBA e PnBA) no sinal de SERS. No capítulo 6 é descrita a utilização da técnica de SERS como método alternativo para a monitorização de alterações morfológicas de coloides de NRs de Au. Os NRs de Au foram recolhidos em diferentes fases de oxidação promovida pela presença de K2S2O8 e a sua sensibilidade como substratos de SERS foi avaliada utilizando o anião dietilditiocarbamato (DTC) como analito modelo. Os estudos foram realizados utilizando as linhas de excitação a 1064 nm e 633 nm. Este estudo demonstrou que a sensibilidade dos NRs de Au como substratos de SERS diminui à medida que a sua R.A. diminui devido à competitividade do CTAB (estabilizante) e o DTC pela superfície dos NRs. É de salientar que este processo é acompanhado por um diferente comportamento em termos de adsorção dos dois tautómeros do DTC à superfície do metal. O capítulo 7 introduz um novo tipo de compósitos para SERS, utilizando matrizes biopoliméricas. Assim, descreve-se a preparação e caracterização de nanocompósitos de carragenano e NPs de Ag. Nesta secção é avaliada a utilização destes materiais como novos substratos para a análise em SERS, utilizando a 2-2’-ditiodipiridina como molécula modelo. Descrevem-se estudos pioneiros que procuram relacionar a dependência do sinal de SERS com a força do gel. Para tal, realizou-se um estudo sistemático aos nanobiocompósitos usados como substratos de SERS em diferentes condições analíticas e investigaram-se as suas propriedades reológicas. No capitulo 8 é descrita a investigação de nanocompósitos de Ag/Gelatina como substratos para SERS, utilizando o anião dietilditiocarbamato como analito modelo. Realizaram-se várias experiências para correlacionar a variação da força do gel com o aumento do sinal de SERS bem como a diferente adsorção dos dois tautómeros do DTC à superfície do metal. Ao longo desta dissertação são apresentados metodologias distintas para a preparação e obtenção de nanocompósitos com base em polímeros (sintéticos ou naturais) e NPs metálicas (Ag e Au). Esta investigação não só permitiu a síntese e estudo de novos substratos para SERS mas também a compreensão do efeito matriz/NPs metálicas no sinal de SERS e na formação de “hot spots”. Este trabalho contribui para o enriquecimento na área da Nanociência e Nanotecnologia demonstrando a eficácia e reprodutibilidade de nanocompósitos com base em polímeros como novos substratos para SERS. Embora as propriedades óticas apresentadas por estes materiais serem aqui direcionadas para a deteção molecular pela técnica de SERS, estes materiais podem ser investigados em outras área tecnológicas.
Resumo:
The incidence of cardiovascular diseases (CVD) has been increasing according to the European and global statistics. Thus, the development of new analytical devices, such as biosensors for assessing the risk of CVD could become a valuable approach for the improvement of healthcare service. In latest years, the nanotechnology has provided new materials with improved electronic properties which have an important contribution in the transduction mechanism of biosensors. Thus, in this thesis, biosensors based on field effect transistors with single-walled carbon nanotubes (NTFET) were developed for the detection of C-reactive protein (CRP) in clinical samples, that is, blood serum and saliva from a group of control patients and a group of CVD risk patients. CRP is an acute-phase protein, which is commonly known as the best validated biomarker for the assessment of CVD, the single-walled carbon nanotubes (SWCNT) were applied as transduction components, and the immunoreaction (interaction between the CRP antigen and the antibodies specific to CRP) was used as the mechanism of molecular recognition for the label-free detection of CRP. After the microfabrication of field effect transistors (FET), the screening of the most important variables for the dispersion of SWCNT, the assemblage of NTFET, and their application on standard solutions of CRP, it was found that NTFET respond accurately to CRP both in saliva and in serum samples, since similar CRP levels were found with the NTFET and the traditional methodology (ELISA technique). On the other hand, a strong correlation between salivary and serum CRP was found with NTFET, which means that saliva could be used, based on non-invasive sampling, as an alternative fluid to blood serum. It was also shown that NTFET could discriminate control patients from CVD risk patients, allowing the determination of a cut-off value for salivary CRP of 1900 ng L-1, which corresponds to the well established cut-off of 3 mg L-1 for CRP in serum, constituting an important finding for the possible establishment of a new range of CRP levels based on saliva. According to the data provided from the volunteer patients regarding their lipoprotein profile and lifestyle factors, it was concluded that the control and the CVD risk patients could be separated taking into account the various risk factors established in literature as strong contributors for developing a CVD, such as triglycerides, serum CRP, total cholesterol, LDL cholesterol, body mass index, Framingham risk score, hypertension, dyslipidemia, and diabetes mellitus. Thus, this work could provide an additional contribution to the understanding of the association of biomarkers levels in serum and saliva samples, and above all, cost-effective, rapid, label-free, and disposable NTFET were developed, based on a noninvasive sampling, for the assessment of CVD risk, thus constituting a potential point-of-care technology.
Resumo:
A evolução constante em novas tecnologias que providenciam suporte à forma como os nossos dispositivos se ligam, bem como a forma como utilizamos diferentes capacidades e serviços on-line, criou um conjunto sem precedentes de novos desafios que motivam o desenvolvimento de uma recente área de investigação, denominada de Internet Futura. Nesta nova área de investigação, novos aspectos arquiteturais estão ser desenvolvidos, os quais, através da re-estruturação de componentes nucleares subjacentesa que compõem a Internet, progride-a de uma forma capaz de não são fazer face a estes novos desafios, mas também de a preparar para os desafios de amanhã. Aspectos chave pertencendo a este conjunto de desafios são os ambientes de rede heterogéneos compostos por diferentes tipos de redes de acesso, a cada vez maior mudança do tráfego peer-to-peer (P2P) como o tipo de tráfego mais utilizado na Internet, a orquestração de cenários da Internet das Coisas (IoT) que exploram mecanismos de interação Maquinaa-Maquina (M2M), e a utilização de mechanismos centrados na informação (ICN). Esta tese apresenta uma nova arquitetura capaz de simultaneamente fazer face a estes desafios, evoluindo os procedimentos de conectividade e entidades envolvidas, através da adição de uma camada de middleware, que age como um mecanismo de gestão de controlo avançado. Este mecanismo de gestão de controlo aproxima as entidades de alto nível (tais como serviços, aplicações, entidades de gestão de mobilidade, operações de encaminhamento, etc.) com as componentes das camadas de baixo nível (por exemplo, camadas de ligação, sensores e atuadores), permitindo uma otimização conjunta dos procedimentos de ligação subjacentes. Os resultados obtidos não só sublinham a flexibilidade dos mecanismos que compoem a arquitetura, mas também a sua capacidade de providenciar aumentos de performance quando comparados com outras soluÇÕes de funcionamento especÍfico, enquanto permite um maior leque de cenáios e aplicações.
Resumo:
O presente trabalho teve como objetivo principal estudar o comportamento mecânico do disco intervertebral recorrendo a sensores em fibra ótica. Na expetativa de efetuar o melhor enquadramento do tema foi efetuada uma revisão exaustiva das várias configurações de sensores em fibra ótica que têm vindo a ser utilizadas em aplicações biomédicas e biomecânicas, nomeadamente para medição de temperatura, deformação, força e pressão. Nesse âmbito, procurou-se destacar as potencialidades dos sensores em fibra ótica e apresentá-los como uma tecnologia alternativa ou até de substituição das tecnologias associadas a sensores convencionais. Tendo em vista a aplicação de sensores em fibra ótica no estudo do comportamento do disco intervertebral efetuou-se também uma revisão exaustiva da coluna vertebral e, particularmente, do conceito de unidade funcional. A par de uma descrição anatómica e funcional centrada no disco intervertebral, vértebras adjacentes e ligamentos espinais foram ainda destacadas as suas propriedades mecânicas e descritos os procedimentos mais usuais no estudo dessas propriedades. A componente experimental do presente trabalho descreve um conjunto de experiências efetuadas com unidades funcionais cadavéricas utilizando sensores convencionais e sensores em fibra ótica com vista à medição da deformação do disco intervertebral sob cargas compressivas uniaxiais. Inclui ainda a medição in vivo da pressão intradiscal num disco lombar de uma ovelha sob efeito de anestesia. Para esse efeito utilizou-se um sensor comercial em fibra ótica e desenvolveu-se a respetiva unidade de interrogação. Finalmente apresenta-se os resultados da investigação em curso que tem como objetivo propor e desenvolver protótipos de sensores em fibra ótica para aplicações biomédicas e biomecânicas. Nesse sentido, são apresentadas duas soluções de sensores interferométricos para medição da pressão em fluídos corporais.
Resumo:
Os desafios com que a escola da atualidade é confrontada, devido à diversidade da população que a constitui e às sucessivas mudanças que perpassam a sociedade contemporânea, exigem da mesma respostas curriculares contextualizadas. Neste sentido, a Supervisão dos processos de Gestão Curricular Flexível configura-se como uma mais-valia podendo constituir-se um dos meios mais eficazes para a construção de uma Educação Inclusiva numa perspetiva de Escola para Todos. Neste âmbito, o presente estudo tem como principais finalidades aprofundar o conhecimento sobre a importância que a Supervisão pode assumir nos processos de Gestão Curricular Flexível e averiguar qual o seu contributo para a construção de uma Escola Inclusiva. Tratou-se de um estudo de caso, desenvolvido num Agrupamento de Escolas do distrito de Aveiro. Teve como participantes o diretor do Agrupamento, os responsáveis pelo 1º CEB e pela Educação Especial e os coordenadores de departamento do 1º CEB e da Educação Especial. Contou ainda com a participação dos professores do 1º CEB, de Educação Especial e do Apoio Educativo do referido Agrupamento. Este estudo desenvolveu-se de acordo com uma abordagem de natureza qualitativa e interpretativa, recorrendo-se a uma metodologia de natureza mista. Assim, e de forma a ser possível construir a visão mais holística e integrada que o objeto de estudo pressupõe, utilizámos um conjunto diverso e complementar de técnicas e instrumentos de investigação, nomeadamente, o inquérito por entrevista (entrevista semiestruturada) e o inquérito por questionário. Como fontes de informação complementar, recorremos à análise documental e às notas de campo. Os resultados do estudo sugerem que os participantes, no que concerne às perceções sobre a Educação Inclusiva, manifestam uma visão ampla do conceito, orientada para Todos os alunos. Relativamente às perceções acerca da Gestão Curricular Flexível, verificamos que os participantes se referem a ela por oposição a uma gestão curricular de cariz uniforme e que a mesma parece ser entendida como um processo que possibilita a contextualização do currículo sem deixar de ter em consideração o currículo nacional. No que respeita às perceções sobre Supervisão dos processos de Gestão Curricular Flexível, de modo global, os participantes parecem perspetivá-la como uma forma de acompanhar, apoiar e regular as práticas curriculares dos professores, sobretudo através da observação e da reflexão conjunta, ajudando-os a encontrarem melhores soluções para os problemas com os quais se confrontam, evidenciando-se como um contributo para a promoção de uma Educação Inclusiva.
Resumo:
Nos últimos anos, a Optoelectrónica tem sido estabelecida como um campo de investigação capaz de conduzir a novas soluções tecnológicas. As conquistas abundantes no campo da óptica e lasers, bem como em comunicações ópticas têm sido de grande importância e desencadearam uma série de inovações. Entre o grande número de componentes ópticos existentes, os componentes baseados em fibra óptica são principalmente relevantes devido à sua simplicidade e à elevada de transporte de dados da fibra óptica. Neste trabalho foi focado um destes componentes ópticos: as redes de difracção em fibra óptica, as quais têm propriedades ópticas de processamento únicas. Esta classe de componentes ópticos é extremamente atraente para o desenvolvimento de dispositivos de comunicações ópticas e sensores. O trabalho começou com uma análise teórica aplicada a redes em fibra e foram focados os métodos de fabricação de redes em fibra mais utilizados. A inscrição de redes em fibra também foi abordado neste trabalho, onde um sistema de inscrição automatizada foi implementada para a fibra óptica de sílica, e os resultados experimentais mostraram uma boa aproximação ao estudo de simulação. Também foi desenvolvido um sistema de inscrição de redes de Bragg em fibra óptica de plástico. Foi apresentado um estudo detalhado da modulação acústico-óptica em redes em fibra óptica de sílica e de plástico. Por meio de uma análise detalhada dos modos de excitação mecânica aplicadas ao modulador acústico-óptico, destacou-se que dois modos predominantes de excitação acústica pode ser estabelecidos na fibra óptica, dependendo da frequência acústica aplicada. Através dessa caracterização, foi possível desenvolver novas aplicações para comunicações ópticas. Estudos e implementação de diferentes dispositivos baseados em redes em fibra foram realizados, usando o efeito acústico-óptico e o processo de regeneração em fibra óptica para várias aplicações tais como rápido multiplexador óptico add-drop, atraso de grupo sintonizável de redes de Bragg, redes de Bragg com descolamento de fase sintonizáveis, método para a inscrição de redes de Bragg com perfis complexos, filtro sintonizável para equalização de ganho e filtros ópticos notch ajustáveis.
Resumo:
This investigation focused on the development, test and validation of methodologies for mercury fractionation and speciation in soil and sediment. After an exhaustive review of the literature, several methods were chosen and tested in well characterised soil and sediment samples. Sequential extraction procedures that divide mercury fractions according to their mobility and potential availability in the environment were investigated. The efficiency of different solvents for fractionation of mercury was evaluated, as well as the adequacy of different analytical instruments for quantification of mercury in the extracts. Kinetic experiments to establish the equilibrium time for mercury release from soil or sediment were also performed. It was found that in the studied areas, only a very small percentage of mercury is present as mobile species and that mobility is associated to higher aluminium and manganese contents, and that high contents of organic matter and sulfur result in mercury tightly bound to the matrix. Sandy soils tend to release mercury faster that clayey soils, and therefore, texture of soil or sediment has a strong influence on the mobility of mercury. It was also understood that analytical techniques for quantification of mercury need to be further developed, with lower quantification limits, particularly for mercury quantification of less concentrated fractions: water-soluble e exchangeable. Although the results provided a better understanding of the distribution of mercury in the sample, the complexity of the procedure limits its applicability and robustness. A proficiency-testing scheme targeting total mercury determination in soil, sediment, fish and human hair was organised in order to evaluate the consistency of results obtained by different laboratories, applying their routine methods to the same test samples. Additionally, single extractions by 1 mol L-1 ammonium acetate solution, 0.1 mol L-1 HCl and 0.1 mol L-1 CaCl2, as well as extraction of the organometallic fraction were proposed for soil; the last was also suggested for sediment and fish. This study was important to update the knowledge on analytical techniques that are being used for mercury quantification, the associated problems and sources of error, and to improve and standardize mercury extraction techniques, as well as to implement effective strategies for quality control in mercury determination. A different, “non chemical-like” method for mercury species identification was developed, optimised and validated, based on the thermo-desorption of the different mercury species. Compared to conventional extraction procedures, this method has advantages: it requires little to no sample treatment; a complete identification of species present is obtained in less than two hours; mercury losses are almost neglectable; can be considered “clean”, as no residues are produced; the worldwide comparison of results obtained is easier and reliable, an important step towards the validation of the method. Therefore, the main deliverables of this PhD thesis are an improved knowledge on analytical procedures for identification and quantification of mercury species in soils and sediments, as well as a better understanding of the factors controlling the behaviour of mercury in these matrices.
Resumo:
The work presented in this Ph.D thesis was developed in the context of complex network theory, from a statistical physics standpoint. We examine two distinct problems in this research field, taking a special interest in their respective critical properties. In both cases, the emergence of criticality is driven by a local optimization dynamics. Firstly, a recently introduced class of percolation problems that attracted a significant amount of attention from the scientific community, and was quickly followed up by an abundance of other works. Percolation transitions were believed to be continuous, until, recently, an 'explosive' percolation problem was reported to undergo a discontinuous transition, in [93]. The system's evolution is driven by a metropolis-like algorithm, apparently producing a discontinuous jump on the giant component's size at the percolation threshold. This finding was subsequently supported by number of other experimental studies [96, 97, 98, 99, 100, 101]. However, in [1] we have proved that the explosive percolation transition is actually continuous. The discontinuity which was observed in the evolution of the giant component's relative size is explained by the unusual smallness of the corresponding critical exponent, combined with the finiteness of the systems considered in experiments. Therefore, the size of the jump vanishes as the system's size goes to infinity. Additionally, we provide the complete theoretical description of the critical properties for a generalized version of the explosive percolation model [2], as well as a method [3] for a precise calculation of percolation's critical properties from numerical data (useful when exact results are not available). Secondly, we study a network flow optimization model, where the dynamics consists of consecutive mergings and splittings of currents flowing in the network. The current conservation constraint does not impose any particular criterion for the split of current among channels outgoing nodes, allowing us to introduce an asymmetrical rule, observed in several real systems. We solved analytically the dynamic equations describing this model in the high and low current regimes. The solutions found are compared with numerical results, for the two regimes, showing an excellent agreement. Surprisingly, in the low current regime, this model exhibits some features usually associated with continuous phase transitions.
Resumo:
Bach’s Suites for unaccompanied cello are a masterpiece of the Classical Western canon for their singularity and their creator’s mastery. A myriad of transcriptions were made throughout the centuries with bigger or lesser freedom. This thesis aims at revealing insights from the art of linear polyphony and its performance on a monophonic instrument such as the baritone saxophone. The study of the musical structure is supported by examples from the visual domain that help us to understand the notion of linear polyphony as a third-dimension object. The particularity of this study, in relation to the multiple existing literature about Bach’s music, is its focus on a wind player’s point of view, a saxophonist, which, given the restriction of the polyphonic possibilities of the instrument, reveals some discerning solutions on the performance, analysis and elaboration of the polyphonic thinking in Bach’s Suites. Similar to the relative novelty of the cello at Bach’s time, my work aims at giving as close as possible the same perspective of the music through a new vision and instrument. I analysed the art of linear polyphony and the techniques of elaboration of the melody in the Cello Suites, notably as a means to support the interpretation (e.g. articulation, phrasing, dynamics, vibrato, fingerings, etc.) and to devise a transcription of the Suites for the baritone saxophone. My choice felled on a transcription for baritone saxophone based on the manuscript from Anna Magdalena Bach, wishing to provide detailed guidelines for saxophonists who want to create a more informed interpretation. I hope to offer a better understanding of these works and to provide a reference to build and develop an individual interpretation, especially on the baritone saxophone.
Resumo:
In the modern society, new devices, applications and technologies, with sophisticated capabilities, are converging in the same network infrastructure. Users are also increasingly demanding in personal preferences and expectations, desiring Internet connectivity anytime and everywhere. These aspects have triggered many research efforts, since the current Internet is reaching a breaking point trying to provide enough flexibility for users and profits for operators, while dealing with the complex requirements raised by the recent evolution. Fully aligned with the future Internet research, many solutions have been proposed to enhance the current Internet-based architectures and protocols, in order to become context-aware, that is, to be dynamically adapted to the change of the information characterizing any network entity. In this sense, the presented Thesis proposes a new architecture that allows to create several networks with different characteristics according to their context, on the top of a single Wireless Mesh Network (WMN), which infrastructure and protocols are very flexible and self-adaptable. More specifically, this Thesis models the context of users, which can span from their security, cost and mobility preferences, devices’ capabilities or services’ quality requirements, in order to turn a WMN into a set of logical networks. Each logical network is configured to meet a set of user context needs (for instance, support of high mobility and low security). To implement this user-centric architecture, this Thesis uses the network virtualization, which has often been advocated as a mean to deploy independent network architectures and services towards the future Internet, while allowing a dynamic resource management. This way, network virtualization can allow a flexible and programmable configuration of a WMN, in order to be shared by multiple logical networks (or virtual networks - VNs). Moreover, the high level of isolation introduced by network virtualization can be used to differentiate the protocols and mechanisms of each context-aware VN. This architecture raises several challenges to control and manage the VNs on-demand, in response to user and WMN dynamics. In this context, we target the mechanisms to: (i) discover and select the VN to assign to an user; (ii) create, adapt and remove the VN topologies and routes. We also explore how the rate of variation of the user context requirements can be considered to improve the performance and reduce the complexity of the VN control and management. Finally, due to the scalability limitations of centralized control solutions, we propose a mechanism to distribute the control functionalities along the architectural entities, which can cooperate to control and manage the VNs in a distributed way.
Resumo:
É extensa a bibliografia dedicada a potenciais aplicações de materiais com mudança de fase na regulação térmica e no armazenamento de calor ou de frio. No entanto, a baixa condutividade térmica impõe limitações numa grande diversidade de aplicações com exigências críticas em termos de tempo de resposta curto ou com requisitos de elevada potência em ciclos de carga/descarga de calor latente. Foram desenvolvidos códigos numéricos no sentido de obter soluções precisas para descrever a cinética da transferência de calor com mudança de fase, com base em geometrias representativas, i.e. planar e esférica. Foram igualmente propostas soluções aproximadas, sendo identificados correspondentes critérios de validação em função das propriedades dos materiais de mudança de fase e de outros parâmetros relevantes tais como as escalas de tamanho e de tempo, etc. As referidas soluções permitiram identificar com rigor os fatores determinantes daquelas limitações, quantificar os correspondentes efeitos e estabelecer critérios de qualidade adequados para diferentes tipologias de potenciais aplicações. Os referidos critérios foram sistematizados de acordo com metodologias de seleção propostas por Ashby e co-autores, tendo em vista o melhor desempenho dos materiais em aplicações representativas, designadamente com requisitos ao nível de densidade energética, tempo de resposta, potência de carga/descarga e gama de temperaturas de operação. Nesta sistematização foram incluídos alguns dos compósitos desenvolvidos durante o presente trabalho. A avaliação das limitações acima mencionadas deu origem ao desenvolvimento de materiais compósitos para acumulação de calor ou frio, com acentuada melhoria de resposta térmica, mediante incorporação de uma fase com condutividade térmica muito superior à da matriz. Para este efeito, foram desenvolvidos modelos para otimizar a distribuição espacial da fase condutora, de modo a superar os limites de percolação previstos por modelos clássicos de condução em compósitos com distribuição aleatória, visando melhorias de desempenho térmico com reduzidas frações de fase condutora e garantindo que a densidade energética não é significativamente afetada. Os modelos elaborados correspondem a compósitos de tipo core-shell, baseados em microestruturas celulares da fase de elevada condutividade térmica, impregnadas com o material de mudança de fase propriamente dito. Além de visarem a minimização da fração de fase condutora e correspondentes custos, os modelos de compósitos propostos tiveram em conta a adequação a métodos de processamento versáteis, reprodutíveis, preferencialmente com base na emulsificação de líquidos orgânicos em suspensões aquosas ou outros processos de reduzidas complexidade e com base em materiais de baixo custo (material de mudança de fase e fase condutora). O design da distribuição microestrutural também considerou a possibilidade de orientação preferencial de fases condutoras com elevada anisotropia (p.e. grafite), mediante auto-organização. Outros estágios do projeto foram subordinados a esses objetivos de desenvolvimento de compósitos com resposta térmica otimizada, em conformidade com previsões dos modelos de compósitos de tipo core-shell, acima mencionadas. Neste enquadramento, foram preparados 3 tipos de compósitos com organização celular da fase condutora, com as seguintes características e metodologias: i) compósitos celulares parafina-grafite para acumulação de calor, preparados in-situ por emulsificação de uma suspensão de grafite em parafina fundida; ii) compósitos celulares parafina-Al2O3 para acumulação de calor, preparados por impregnação de parafina em esqueleto cerâmico celular de Al2O3; iii) compósitos celulares para acumulação de frio, obtidos mediante impregnação de matrizes celulares de grafite com solução de colagénio, após preparação prévia das matrizes de grafite celular. Os compósitos com esqueleto cerâmico (ii) requereram o desenvolvimento prévio de um método para o seu processamento, baseado na emulsificação de suspensões de Al2O3 em parafina fundida, com adequados aditivos dispersantes, tensioactivos e consolidantes do esqueleto cerâmico, tornando-o auto-suportável durante as fases posteriores de eliminação da parafina, até à queima a alta temperatura, originando cerâmicos celulares com adequada resistência mecânica. Os compósitos desenvolvidos apresentam melhorias significativos de condutividade térmica, atingindo ganhos superiores a 1 ordem de grandeza com frações de fase condutora inferior a 10 % vol. (4 W m-1 K-1), em virtude da organização core-shell e com o contributo adicional da anisotropia da grafite, mediante orientação preferencial. Foram ainda preparados compósitos de armazenamento de frio (iii), com orientação aleatória da fase condutora, obtidos mediante gelificação de suspensões de partículas de grafite em solução aquosa de colagénio. Apesar da estabilidade microestrutural e de forma, conferida por gelificação, estes compósitos confirmaram a esperada limitação dos compósitos com distribuição aleatória, em confronto com os ganhos alcançados com a organização de tipo core-shell.
Resumo:
The expectations of citizens from the Information Technologies (ITs) are increasing as the ITs have become integral part of our society, serving all kinds of activities whether professional, leisure, safety-critical applications or business. Hence, the limitations of the traditional network designs to provide innovative and enhanced services and applications motivated a consensus to integrate all services over packet switching infrastructures, using the Internet Protocol, so as to leverage flexible control and economical benefits in the Next Generation Networks (NGNs). However, the Internet is not capable of treating services differently while each service has its own requirements (e.g., Quality of Service - QoS). Therefore, the need for more evolved forms of communications has driven to radical changes of architectural and layering designs which demand appropriate solutions for service admission and network resources control. This Thesis addresses QoS and network control issues, aiming to improve overall control performance in current and future networks which classify services into classes. The Thesis is divided into three parts. In the first part, we propose two resource over-reservation algorithms, a Class-based bandwidth Over-Reservation (COR) and an Enhanced COR (ECOR). The over-reservation means reserving more bandwidth than a Class of Service (CoS) needs, so the QoS reservation signalling rate is reduced. COR and ECOR allow for dynamically defining over-reservation parameters for CoSs based on network interfaces resource conditions; they aim to reduce QoS signalling and related overhead without incurring CoS starvation or waste of bandwidth. ECOR differs from COR by allowing for optimizing control overhead minimization. Further, we propose a centralized control mechanism called Advanced Centralization Architecture (ACA), that uses a single state-full Control Decision Point (CDP) which maintains a good view of its underlying network topology and the related links resource statistics on real-time basis to control the overall network. It is very important to mention that, in this Thesis, we use multicast trees as the basis for session transport, not only for group communication purposes, but mainly to pin packets of a session mapped to a tree to follow the desired tree. Our simulation results prove a drastic reduction of QoS control signalling and the related overhead without QoS violation or waste of resources. Besides, we provide a generic-purpose analytical model to assess the impact of various parameters (e.g., link capacity, session dynamics, etc.) that generally challenge resource overprovisioning control. In the second part of this Thesis, we propose a decentralization control mechanism called Advanced Class-based resource OverpRovisioning (ACOR), that aims to achieve better scalability than the ACA approach. ACOR enables multiple CDPs, distributed at network edge, to cooperate and exchange appropriate control data (e.g., trees and bandwidth usage information) such that each CDP is able to maintain a good knowledge of the network topology and the related links resource statistics on real-time basis. From scalability perspective, ACOR cooperation is selective, meaning that control information is exchanged dynamically among only the CDPs which are concerned (correlated). Moreover, the synchronization is carried out through our proposed concept of Virtual Over-Provisioned Resource (VOPR), which is a share of over-reservations of each interface to each tree that uses the interface. Thus, each CDP can process several session requests over a tree without requiring synchronization between the correlated CDPs as long as the VOPR of the tree is not exhausted. Analytical and simulation results demonstrate that aggregate over-reservation control in decentralized scenarios keep low signalling without QoS violations or waste of resources. We also introduced a control signalling protocol called ACOR Protocol (ACOR-P) to support the centralization and decentralization designs in this Thesis. Further, we propose an Extended ACOR (E-ACOR) which aggregates the VOPR of all trees that originate at the same CDP, and more session requests can be processed without synchronization when compared with ACOR. In addition, E-ACOR introduces a mechanism to efficiently track network congestion information to prevent unnecessary synchronization during congestion time when VOPRs would exhaust upon every session request. The performance evaluation through analytical and simulation results proves the superiority of E-ACOR in minimizing overall control signalling overhead while keeping all advantages of ACOR, that is, without incurring QoS violations or waste of resources. The last part of this Thesis includes the Survivable ACOR (SACOR) proposal to support stable operations of the QoS and network control mechanisms in case of failures and recoveries (e.g., of links and nodes). The performance results show flexible survivability characterized by fast convergence time and differentiation of traffic re-routing under efficient resource utilization i.e. without wasting bandwidth. In summary, the QoS and architectural control mechanisms proposed in this Thesis provide efficient and scalable support for network control key sub-systems (e.g., QoS and resource control, traffic engineering, multicasting, etc.), and thus allow for optimizing network overall control performance.