970 resultados para synchroton-based techniques


Relevância:

30.00% 30.00%

Publicador:

Resumo:

One of the most popular techniques of generating classifier ensembles is known as stacking which is based on a meta-learning approach. In this paper, we introduce an alternative method to stacking which is based on cluster analysis. Similar to stacking, instances from a validation set are initially classified by all base classifiers. The output of each classifier is subsequently considered as a new attribute of the instance. Following this, a validation set is divided into clusters according to the new attributes and a small subset of the original attributes of the instances. For each cluster, we find its centroid and calculate its class label. The collection of centroids is considered as a meta-classifier. Experimental results show that the new method outperformed all benchmark methods, namely Majority Voting, Stacking J48, Stacking LR, AdaBoost J48, and Random Forest, in 12 out of 22 data sets. The proposed method has two advantageous properties: it is very robust to relatively small training sets and it can be applied in semi-supervised learning problems. We provide a theoretical investigation regarding the proposed method. This demonstrates that for the method to be successful, the base classifiers applied in the ensemble should have greater than 50% accuracy levels.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Online forums are becoming a popular way of finding useful
information on the web. Search over forums for existing discussion
threads so far is limited to keyword-based search due
to the minimal effort required on part of the users. However,
it is often not possible to capture all the relevant context in a
complex query using a small number of keywords. Examplebased
search that retrieves similar discussion threads given
one exemplary thread is an alternate approach that can help
the user provide richer context and vastly improve forum
search results. In this paper, we address the problem of
finding similar threads to a given thread. Towards this, we
propose a novel methodology to estimate similarity between
discussion threads. Our method exploits the thread structure
to decompose threads in to set of weighted overlapping
components. It then estimates pairwise thread similarities
by quantifying how well the information in the threads are
mutually contained within each other using lexical similarities
between their underlying components. We compare our
proposed methods on real datasets against state-of-the-art
thread retrieval mechanisms wherein we illustrate that our
techniques outperform others by large margins on popular
retrieval evaluation measures such as NDCG, MAP, Precision@k
and MRR. In particular, consistent improvements of
up to 10% are observed on all evaluation measures

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The past decade had witnessed an unprecedented growth in the amount of available digital content, and its volume is expected to continue to grow the next few years. Unstructured text data generated from web and enterprise sources form a large fraction of such content. Many of these contain large volumes of reusable data such as solutions to frequently occurring problems, and general know-how that may be reused in appropriate contexts. In this work, we address issues around leveraging unstructured text data from sources as diverse as the web and the enterprise within the Case-based Reasoning framework. Case-based Reasoning (CBR) provides a framework and methodology for systematic reuse of historical knowledge that is available in the form of problemsolution
pairs, in solving new problems. Here, we consider possibilities of enhancing Textual CBR systems under three main themes: procurement, maintenance and retrieval. We adapt and build upon the stateof-the-art techniques from data mining and natural language processing in addressing various challenges therein. Under procurement, we investigate the problem of extracting cases (i.e., problem-solution pairs) from data sources such as incident/experience
reports. We develop case-base maintenance methods specifically tuned to text targeted towards retaining solutions such that the utility of the filtered case base in solving new problems is maximized. Further, we address the problem of query suggestions for textual case-bases and show that exploiting the problem-solution partition can enhance retrieval effectiveness by prioritizing more useful query suggestions. Additionally, we illustrate interpretable clustering as a tool to drill-down to domain specific text collections (since CBR systems are usually very domain specific) and develop techniques for improved similarity assessment in social media sources such as microblogs. Through extensive empirical evaluations, we illustrate the improvements that we are able to
achieve over the state-of-the-art methods for the respective tasks.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

With the availability of a wide range of cloud Virtual Machines (VMs) it is difficult to determine which VMs can maximise the performance of an application. Benchmarking is commonly used to this end for capturing the performance of VMs. Most cloud benchmarking techniques are typically heavyweight - time consuming processes which have to benchmark the entire VM in order to obtain accurate benchmark data. Such benchmarks cannot be used in real-time on the cloud and incur extra costs even before an application is deployed.

In this paper, we present lightweight cloud benchmarking techniques that execute quickly and can be used in near real-time on the cloud. The exploration of lightweight benchmarking techniques are facilitated by the development of DocLite - Docker Container-based Lightweight Benchmarking. DocLite is built on the Docker container technology which allows a user-defined portion (such as memory size and the number of CPU cores) of the VM to be benchmarked. DocLite operates in two modes, in the first mode, containers are used to benchmark a small portion of the VM to generate performance ranks. In the second mode, historic benchmark data is used along with the first mode as a hybrid to generate VM ranks. The generated ranks are evaluated against three scientific high-performance computing applications. The proposed techniques are up to 91 times faster than a heavyweight technique which benchmarks the entire VM. It is observed that the first mode can generate ranks with over 90% and 86% accuracy for sequential and parallel execution of an application. The hybrid mode improves the correlation slightly but the first mode is sufficient for benchmarking cloud VMs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The X-parameter based nonlinear modelling tools have been adopted as the foundation for the advanced methodology
of experimental characterisation and design of passive nonlinear devices. Based upon the formalism of the Xparameters,
it provides a unified framework for co-design of antenna beamforming networks, filters, phase shifters and
other passive and active devices of RF front-end, taking into account the effect of their nonlinearities. The equivalent
circuits of the canonical elements are readily incorporated in the models, thus enabling evaluation of PIM effect on the
performance of individual devices and their assemblies. An important advantage of the presented methodology is its
compatibility with the industry-standard established commercial RF circuit simulator Agilent ADS.
The major challenge in practical implementation of the proposed approach is concerned with experimental retrieval of the X-parameters for canonical passive circuit elements. To our best knowledge commercial PIM testers and practical laboratory test instruments are inherently narrowband and do not allow for simultaneous vector measurements at the PIM and harmonic frequencies. Alternatively, existing nonlinear vector analysers (NVNA) support X-parameter measurements in a broad frequency bands with a range of stimuli, but their dynamic range is insufficient for the PIM characterisation in practical circuits. Further opportunities for adaptation of the X-parameters methodology to the PIM
characterisation of passive devices using the existing test instruments are explored.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Among Caucasians, it is well known that 75-95% of primary glaucoma is due to open-angle glaucoma (POAG), with angle-closure (PACG) comprising only a very small minority of cases. These figures are reversed among other groups such as Asians and Eskimos, where PACG makes up 80-90% of primary glaucoma. Among Eskimos, the prevalence of PACG has been reported as 2-8%, as compared to 0.1% among Caucasians. It appears that a population tendency toward shallow anterior chambers may explain the excess burden of PACG morbidity. Among Asians, the prevalence of PACG is intermediate between Caucasians and Eskimos. Existing biometrical data do not show a clear tendency toward shallower anterior chambers among Asians. PACG may be screened for on a population basis by means of various techniques that estimate axial or limbal anterior chamber depth, measure intraocular pressure, or evaluate the optic disc or visual fields. Demographic information and medical and family history will also be of great importance in screening for PACG in large populations. Groups at increased risk for the disease include women, individuals over 50, first-degree relatives of PACG probands, and hyperopes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

TOPIC:

To analyze the literature pertaining to the techniques used in combined cataract and glaucoma surgery, including the technique of cataract extraction, the timing of the surgery (staged procedure versus combined procedure), the anatomic location of the operation, and the use of antifibrosis agents.

CLINICAL RELEVANCE:

Cataract and glaucoma are both common conditions and are often present in the same patient. There is no agreement concerning the optimal surgical management of these disorders when they coexist.

METHODS/LITERATURE REVIEWED:

Electronic searches of English language articles published since 1964 were conducted in Pub MED and CENTRAL, the Cochrane Collaboration's database. These were augmented by a hand search of six ophthalmology journals and the reference lists of a sample of studies included in the literature review. Evidence grades (A, strong; B, moderate; C, weak; I, insufficient) were assigned to the evidence that involved a direct comparison of alternative techniques.

RESULTS:

The preponderance of evidence from the literature suggests a small (2-4 mmHg) benefit from the use of mitomycin-C (MMC), but not 5-fluorouracil (5-FU), in combined cataract and glaucoma surgery (evidence grade B). Two-site surgery provides slightly lower (1-3 mmHg) intraocular pressure (IOP) than one-site surgery (evidence grade C), and IOP is lowered more (1-3 mmHg) by phacoemulsification than by nuclear expression in combined procedures (evidence grade C). There is insufficient evidence to conclude either that staged or combined procedures give better results or that alternative glaucoma procedures are superior to trabeculectomy in combined procedures.

CONCLUSIONS:

In the literature on surgical techniques and adjuvants used in the management of coexisting cataract and glaucoma, the strongest evidence of efficacy exists for using MMC, separating the incisions for cataract and glaucoma surgery, and removing the nucleus by phacoemulsification.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The European “Community Bureau of Reference” (BCR) sequential extraction procedure, diffusive gradient in thin-films technique (DGT), and physiologically based extraction test were applied to assess metal bioavailability in sediments of Lake Taihu (n = 13). Findings from the three methods showed that Cd was a significant problem in the western lake whereas Cu, Zn, and Ni pollution was most severe in the northern lake. Results from the sequential extraction revealed that more than 50 % of the Cu and Zn were highly mobile and defined within the extractable fraction (AS1 + FM2 + OS3) in the majority of the sediments, in contrast extractable fractions of Ni and Cd were lower than 50 % in most of the sampling sites. Average Cu, Zn, Ni, and Cd bioaccessibilities were <50 % in the gastric phase. Zn and Cd bioaccessibility in the intestinal phase was ∼50 % lower than the gastric phase while bioaccessibilities of Cu and Ni were 47–57 % greater than the gastric phase. Linear regression analysis between DGT and BCR measurements indicated that the extractable fractions (AS1 + FM2 + OS3) in the reducing environment were the main source of DGT uptake, suggesting that DGT is a good in situ evaluation tool for metal bioavailability in sediments.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This Integration Insight provides a brief overview of the most popular modelling techniques used to analyse complex real-world problems, as well as some less popular but highly relevant techniques. The modelling methods are divided into three categories, with each encompassing a number of methods, as follows: 1) Qualitative Aggregate Models (Soft Systems Methodology, Concept Maps and Mind Mapping, Scenario Planning, Causal (Loop) Diagrams), 2) Quantitative Aggregate Models (Function fitting and Regression, Bayesian Nets, System of differential equations / Dynamical systems, System Dynamics, Evolutionary Algorithms) and 3) Individual Oriented Models (Cellular Automata, Microsimulation, Agent Based Models, Discrete Event Simulation, Social Network
Analysis). Each technique is broadly described with example uses, key attributes and reference material.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

For reasons of unequal distribution of more than one nematode species in wood, and limited availability of wood samples required for the PCR-based method for detecting pinewood nematodes in wood tissue of Pinus massoniana, a rapid staining-assisted wood sampling method aiding PCR-based detection of the pine wood nematode Bursaphelenchus xylophilus (Bx) in small wood samples of P. massoniana was developed in this study. This comprised a series of new techniques: sampling, mass estimations of nematodes using staining techniques, and lowest limit Bx nematode mass determination for PCR detection. The procedure was undertaken on three adjoining 5-mg wood cross-sections, of 0.5 · 0.5 · 0.015 cm dimension, that were cut from a wood sample of 0.5 · 0.5 · 0.5 cm initially, then the larger wood sample was stained by acid fuchsin, from which two 5-mg wood cross-sections (that adjoined the three 5-mg wood cross-sections, mentioned above) were cut. Nematode-staining-spots (NSSs) in each of the two stained sections were counted under a microscope at 100· magnification. If there were eight or more NSSs present, the adjoining three sections were used for PCR assays. The B. xylophilus – specific amplicon of 403 bp (DQ855275) was generated by PCR assay from 100.00% of 5-mg wood cross-sections that contained more than eight Bx NSSs by the PCR assay. The entire sampling procedure took only 10 min indicating that it is suitable for the fast estimation of nematode numbers in the wood of P. massonina as the prelimary sample selections for other more expensive Bx-detection methods such as PCR assay.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O desenvolvimento de sistemas computacionais é um processo complexo, com múltiplas etapas, que requer uma análise profunda do problema, levando em consideração as limitações e os requisitos aplicáveis. Tal tarefa envolve a exploração de técnicas alternativas e de algoritmos computacionais para optimizar o sistema e satisfazer os requisitos estabelecidos. Neste contexto, uma das mais importantes etapas é a análise e implementação de algoritmos computacionais. Enormes avanços tecnológicos no âmbito das FPGAs (Field-Programmable Gate Arrays) tornaram possível o desenvolvimento de sistemas de engenharia extremamente complexos. Contudo, o número de transístores disponíveis por chip está a crescer mais rapidamente do que a capacidade que temos para desenvolver sistemas que tirem proveito desse crescimento. Esta limitação já bem conhecida, antes de se revelar com FPGAs, já se verificava com ASICs (Application-Specific Integrated Circuits) e tem vindo a aumentar continuamente. O desenvolvimento de sistemas com base em FPGAs de alta capacidade envolve uma grande variedade de ferramentas, incluindo métodos para a implementação eficiente de algoritmos computacionais. Esta tese pretende proporcionar uma contribuição nesta área, tirando partido da reutilização, do aumento do nível de abstracção e de especificações algorítmicas mais automatizadas e claras. Mais especificamente, é apresentado um estudo que foi levado a cabo no sentido de obter critérios relativos à implementação em hardware de algoritmos recursivos versus iterativos. Depois de serem apresentadas algumas das estratégias para implementar recursividade em hardware mais significativas, descreve-se, em pormenor, um conjunto de algoritmos para resolver problemas de pesquisa combinatória (considerados enquanto exemplos de aplicação). Versões recursivas e iterativas destes algoritmos foram implementados e testados em FPGA. Com base nos resultados obtidos, é feita uma cuidada análise comparativa. Novas ferramentas e técnicas de investigação que foram desenvolvidas no âmbito desta tese são também discutidas e demonstradas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As piroxenas são um vasto grupo de silicatos minerais encontrados em muitas rochas ígneas e metamórficas. Na sua forma mais simples, estes silicatos são constituídas por cadeias de SiO3 ligando grupos tetrahédricos de SiO4. A fórmula química geral das piroxenas é M2M1T2O6, onde M2 se refere a catiões geralmente em uma coordenação octaédrica distorcida (Mg2+, Fe2+, Mn2+, Li+, Ca2+, Na+), M1 refere-se a catiões numa coordenação octaédrica regular (Al3+, Fe3+, Ti4+, Cr3+, V3+, Ti3+, Zr4+, Sc3+, Zn2+, Mg2+, Fe2+, Mn2+), e T a catiões em coordenação tetrahédrica (Si4+, Al3+, Fe3+). As piroxenas com estrutura monoclínica são designadas de clinopiroxenes. A estabilidade das clinopyroxenes num espectro de composições químicas amplo, em conjugação com a possibilidade de ajustar as suas propriedades físicas e químicas e a durabilidade química, têm gerado um interesse mundial devido a suas aplicações em ciência e tecnologia de materiais. Este trabalho trata do desenvolvimento de vidros e de vitro-cerâmicos baseadas de clinopiroxenas para aplicações funcionais. O estudo teve objectivos científicos e tecnológicos; nomeadamente, adquirir conhecimentos fundamentais sobre a formação de fases cristalinas e soluções sólidas em determinados sistemas vitro-cerâmicos, e avaliar a viabilidade de aplicação dos novos materiais em diferentes áreas tecnológicas, com especial ênfase sobre a selagem em células de combustível de óxido sólido (SOFC). Com este intuito, prepararam-se vários vidros e materiais vitro-cerâmicos ao longo das juntas Enstatite (MgSiO3) - diopsídio (CaMgSi2O6) e diopsídio (CaMgSi2O6) - Ca - Tschermak (CaAlSi2O6), os quais foram caracterizados através de um vasto leque de técnicas. Todos os vidros foram preparados por fusão-arrefecimento enquanto os vitro-cerâmicos foram obtidos quer por sinterização e cristalização de fritas, quer por nucleação e cristalização de vidros monolíticos. Estudaram-se ainda os efeitos de várias substituições iónicas em composições de diopsídio contendo Al na estrutura, sinterização e no comportamento durante a cristalização de vidros e nas propriedades dos materiais vitro-cerâmicos, com relevância para a sua aplicação como selantes em SOFC. Verificou-se que Foi observado que os vidros/vitro-cerâmicos à base de enstatite não apresentavam as características necessárias para serem usados como materiais selantes em SOFC, enquanto as melhores propriedades apresentadas pelos vitro-cerâmicos à base de diopsídio qualificaram-nos para futuros estudos neste tipo de aplicações. Para além de investigar a adequação dos vitro-cerâmicos à base de clinopyroxene como selantes, esta tese tem também como objetivo estudar a influência dos agentes de nucleação na nucleação em volume dos vitro-cerâmicos resultantes á base de diopsídio, de modo a qualificá-los como potenciais materiais hopedeiros de resíduos nucleares radioactivos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O desenvolvimento de betões de elevado desempenho, durante o início da década de 80, revelou que este tipo particular de materiais com base em cimento é susceptível a problemas de cura. São bem conhecidos os efeitos dos fenómenos autogéneos em sistemas de elevado desempenho com base em cimento, nomeadamente a fissuração em idade jovem. Esta é, aliás vista como a maior limitação no desenvolvimento de novos materiais com durabilidade superior. Desenvolvimentos recentes de métodos de cura interna provaram ser uma boa estratégia de mitigação dos efeitos da auto-dissecação destes sistemas, onde a presente tese ganha o seu espaço no tempo. Este estudo centra-se essencialmente em sistemas de elevado desempenho com base em cimento com cura interna através de partículas superabsorventes, dando particular importância à alteração de volume em idade jovem. Da análise mais aprofundada deste método, resultam algumas limitações na sua aplicabilidade, especialmente em sistemas modificados com sílica de fumo. Conclui-se que a natureza física e química dos polímeros superabsorventes pode afectar significativamente a eficiência da cura interna. Em adição, os mecanismos de cura interna são discutidos mais profundamente, sendo que para além dos mecanismos baseados em fenómenos físicos e químicos, parecem existir efeitos mecânicos significativos. Várias técnicas foram utilizadas durante o decorrer desta investigação, com o objectivo, para além da caracterização de certas propriedades dos materiais, de perseguir as questões deixadas em aberto pela comunidade internacional, relativamente aos mecanismos que fundamentam a explicação dos fenómenos autogéneos. Como exemplo, são apresentados os estudos sobre hidratação dos sistemas para avaliação do problema numa escala microscópica, em vez de macroscópica. Uma nova técnica de cura interna emerge da investigação, baseada na utilização de agregados finos como veiculo para mitigar parcialmente a retracção autogénea. Até aqui, esta técnica não encontra par em investigação anterior, mas a extensão da cura interna ou a eficácia na mitigação baseada neste conceito encontra algumas limitações. A significância desta técnica em prevenir a micro fissuração é um aspecto que está ainda em aberto, mas pode concluir-se que os agregados finos podem ser benéficos na redução dos efeitos da restrição localizada no sistema, reduzindo o risco de micro fissuração. A utilização combinada de partículas finas de agregado e polímeros super absorventes pode ter como consequência betão sem microfissuração, ou pelo menos com nanofissuração.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho surge do interesse em substituir os nós de rede óptica baseados maioritariamente em electrónica por nós de rede baseados em tecnologia óptica. Espera-se que a tecnologia óptica permita maiores débitos binários na rede, maior transparência e maior eficiência através de novos paradigmas de comutação. Segundo esta visão, utilizou-se o MZI-SOA, um dispositivo semicondutor integrado hibridamente, para realizar funcionalidades de processamento óptico de sinal necessárias em nós de redes ópticas de nova geração. Nas novas redes ópticas são utilizados formatos de modulação avançados, com gestão da fase, pelo que foi estudado experimentalmente e por simulação o impacto da utilização destes formatos no desempenho do MZI-SOA na conversão de comprimento de onda e formato, em várias condições de operação. Foram derivadas regras de utilização para funcionamento óptimo. Foi também estudado o impacto da forma dos pulsos do sinal no desempenho do dispositivo. De seguida, o MZI-SOA foi utilizado para realizar funcionalidades temporais ao nível do bit e do pacote. Foi investigada a operação de um conversor de multiplexagem por divisão no comprimento de onda para multiplexagem por divisão temporal óptica, experimentalmente e por simulação, e de um compressor e descompressor de pacotes, por simulação. Para este último, foi investigada a operação com o MZI-SOA baseado em amplificadores ópticos de semicondutor com geometria de poço quântico e ponto quântico. Foi também realizado experimentalmente um ermutador de intervalos temporais que explora o MZI-SOA como conversor de comprimento de onda e usa um banco de linhas de atraso ópticas para introduzir no sinal um atraso seleccionável. Por fim, foi estudado analiticamente, experimentalmente e por simulação o impacto de diafonia em redes ópticas em diversas situações. Extendeu-se um modelo analítico de cálculo de desempenho para contemplar sinais distorcidos e afectados por diafonia. Estudou-se o caso de sinais muito filtrados e afectados por diafonia e mostrou-se que, para determinar correctamente as penalidades que ocorrem, ambos os efeitos devem ser considerados simultaneamente e não em separado. Foi estudada a escalabilidade limitada por diafonia de um comutador de intervalos temporais baseado em MZI-SOA a operar como comutador espacial. Mostrou-se também que sinais afectados fortemente por não-linearidades podem causar penalidades de diafonia mais elevadas do que sinais não afectados por não-linearidades. Neste trabalho foi demonstrado que o MZI-SOA permite construir vários e pertinentes circuitos ópticos, funcionando como bloco fundamental de construção, tendo sido o seu desempenho analisado, desde o nível de componente até ao nível de sistema. Tendo em conta as vantagens e desvantagens do MZI-SOA e os desenvolvimentos recentes de outras tecnologias, foram sugeridos tópicos de investigação com o intuito de evoluir para as redes ópticas de nova geração.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho tem como principal objectivo o desenvolvimento de novos materiais baseados em quitosano, seus derivados e celulose, na forma de nanofibras ou de papel. Em primeiro lugar procedeu-se à purificação das amostras comerciais de quitosano e à sua caracterização exaustiva em termos morfológicos e físicoquímicos. Devido a valores contraditórios encontrados na literatura relativamente à energia de superfície do quitosano, e tendo em conta a sua utilização como precursor de modificações químicas e a sua aplicação em misturas com outros materiais, realizou-se também um estudo sistemático da determinação da energia de superfície do quitosano, da quitina e seus respectivos homólogos monoméricos, por medição de ângulos de contacto Em todas as amostras comerciais destes polímeros identificaram-se impurezas não polares que estão associadas a erros na determinação da componente polar da energia de superfície. Após a remoção destas impurezas, o valor da energia total de superfície (gs), e em particular da sua componente polar, aumentou consideravelmente. Depois de purificadas e caracterizadas, algumas das amostras de quitosano foram então usadas na preparação de filmes nanocompósitos, nomeadamente dois quitosanos com diferentes graus de polimerização, correspondentes derivados solúveis em água (cloreto de N-(3-(N,N,N-trimetilamónio)-2- hidroxipropilo) de quitosano) e nanofibras de celulose como reforço (celulose nanofibrilada (NFC) e celulose bacteriana (BC). Estes filmes transparentes foram preparados através de um processo simples e com conotação ‘verde’ pela dispersão homogénea de diferentes teores de NFC (até 60%) e BC (até 40%) nas soluções de quitosano (1.5% w/v) seguida da evaporação do solvente. Os filmes obtidos foram depois caracterizados por diversas técnicas, tais como SEM, AFM, difracção de raio-X, TGA, DMA, ensaios de tracção e espectroscopia no visível. Estes filmes são altamente transparentes e apresentam melhores propriedades mecânicas e maior estabilidade térmica do que os correspondentes filmes sem reforço. Outra abordagem deste trabalho envolveu o revestimento de folhas de papel de E. globulus com quitosano e dois derivados, um derivado fluorescente e um derivado solúvel em água, numa máquina de revestimentos (‘máquina de colagem’) à escala piloto. Este estudo envolveu inicialmente a deposição de 1 a 5 camadas do derivado de quitosano fluorescente sobre as folhas de papel de forma a estudar a sua distribuição nas folhas em termos de espalhamento e penetração, através de medições de reflectância e luminescência. Os resultados mostraram que, por um lado, a distribuição do quitosano na superfície era homogénea e que, por outro lado, a sua penetração através dos poros do papel cessou após três deposições. Depois da terceira camada verificou-se a formação de um filme contínuo de quitosano sobre a superfície do papel. Estes resultados mostram que este derivado de quitosano fluorescente pode ser utilizado como marcador na optimização e compreensão de mecanismos de deposição de quitosano em papel e outros substratos. Depois de conhecida a distribuição do quitosano nas folhas de papel, estudou-se o efeito do revestimento de quitosano e do seu derivado solúvel em água nas propriedades finais do papel. As propriedades morfológicas, mecânicas, superficiais, ópticas, assim como a permeabilidade ao ar e ao vapor de água, a aptidão à impressão e o envelhecimento do papel, foram exaustivamente avaliadas. De uma forma geral, os revestimentos com quitosano e com o seu derivado solúvel em água tiveram um impacto positivo nas propriedades finais do papel, que se mostrou ser dependente do número de camadas depositadas. Os resultados também mostraram que os papéis revestidos com o derivado solúvel em água apresentaram melhores propriedades ópticas, aptidão à impressão e melhores resultados em relação ao envelhecimento do que os papéis revestidos com quitosano. Assim, o uso de derivados de quitosano solúveis em água em processos de revestimento de papel representa uma estratégia bastante interessante e sustentável para o desenvolvimento de novos materiais funcionais ou na melhoria das propriedades finais dos papéis. Por fim, tendo como objectivo valorizar os resíduos e fracções menos nobres da quitina e do quitosano provenientes da indústria transformadora, estes polímeros foram convertidos em polióis viscosos através de uma reacção simples de oxipropilação. Este processo tem também conotação "verde" uma vez que não requer solvente, não origina subprodutos e não exige nenhuma operação específica (separação, purificação, etc) para isolar o produto da reacção. As amostras de quitina e quitosano foram pré-activadas com KOH e depois modificadas com um excesso de óxido de propileno (PO) num reactor apropriado. Em todos os casos, o produto da reacção foi um líquido viscoso composto por quitina ou quitosano oxipropilados e homopolímero de PO. Estas duas fracções foram separadas e caracterizadas.