964 resultados para Research fields
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
OBJETIVO:analisar a produção do conhecimento gerada pelos programas de mestrado profissional em enfermagem e refletir sobre suas perspectivas para a área.MÉTODO:estudo descritivo e analítico. Foram incluídos dados das dissertações de três instituições de ensino que titularam alunos em programas de mestrado profissional em enfermagem entre 2006 e 2012.RESULTADOS:a maioria dos 127 trabalhos de conclusão analisados se desenvolveu no contexto hospitalar; houve tendência de concentração nas áreas organizacional e assistencial, nas linhas de pesquisa processo de cuidar e gerenciamento e predomínio de estudos qualitativos. Há diversidade de produtos resultantes dos trabalhos de conclusão: avaliação de serviços/programas de saúde e geração de processos, protocolos assistenciais ou de ensino.CONCLUSÃO:os programas de mestrado profissional em enfermagem, em fase de consolidação, têm produção recente, em desenvolvimento, havendo lacuna na geração de tecnologias duras e inovação. São fundamentais para o desenvolvimento das práticas profissionais inovadoras que articulem o setor saúde e a educação.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Nowadays, the attainment of microsystems that integrate most of the stages involved in an analytical process has raised an enormous interest in several research fields. This approach provides experimental set-ups of increased robustness and reliability, which simplify their application to in-line and continuous biomedical and environmental monitoring. In this work, a novel, compact and autonomous microanalyzer aimed at multiwavelength colorimetric determinations is presented. It integrates the microfluidics (a three-dimensional mixer and a 25 mm length "Z-shape" optical flow-cell), a highly versatile multiwavelength optical detection system and the associated electronics for signal processing and drive, all in the same device. The flexibility provided by its design allows the microanalyzer to be operated either in single fixed mode to provide a dedicated photometer or in multiple wavelength mode to obtain discrete pseudospectra. To increase its reliability, automate its operation and allow it to work under unattended conditions, a multicommutation sub-system was developed and integrated with the experimental set-up. The device was initially evaluated in the absence of chemical reactions using four acidochromic dyes and later applied to determine some key environmental parameters such as phenol index, chromium(VI) and nitrite ions. Results were comparable with those obtained with commercial instrumentation and allowed to demonstrate the versatility of the proposed microanalyzer as an autonomous and portable device able to be applied to other analytical methodologies based on colorimetric determinations.
Resumo:
Many research fields are pushing the engineering of large-scale, mobile, and open systems towards the adoption of techniques inspired by self-organisation: pervasive computing, but also distributed artificial intelligence, multi-agent systems, social networks, peer-topeer and grid architectures exploit adaptive techniques to make global system properties emerge in spite of the unpredictability of interactions and behaviour. Such a trend is visible also in coordination models and languages, whenever a coordination infrastructure needs to cope with managing interactions in highly dynamic and unpredictable environments. As a consequence, self-organisation can be regarded as a feasible metaphor to define a radically new conceptual coordination framework. The resulting framework defines a novel coordination paradigm, called self-organising coordination, based on the idea of spreading coordination media over the network, and charge them with services to manage interactions based on local criteria, resulting in the emergence of desired and fruitful global coordination properties of the system. Features like topology, locality, time-reactiveness, and stochastic behaviour play a key role in both the definition of such a conceptual framework and the consequent development of self-organising coordination services. According to this framework, the thesis presents several self-organising coordination techniques developed during the PhD course, mainly concerning data distribution in tuplespace-based coordination systems. Some of these techniques have been also implemented in ReSpecT, a coordination language for tuple spaces, based on logic tuples and reactions to events occurring in a tuple space. In addition, the key role played by simulation and formal verification has been investigated, leading to analysing how automatic verification techniques like probabilistic model checking can be exploited in order to formally prove the emergence of desired behaviours when dealing with coordination approaches based on self-organisation. To this end, a concrete case study is presented and discussed.
Resumo:
This work is concerned with the increasing relationships between two distinct multidisciplinary research fields, Semantic Web technologies and scholarly publishing, that in this context converge into one precise research topic: Semantic Publishing. In the spirit of the original aim of Semantic Publishing, i.e. the improvement of scientific communication by means of semantic technologies, this thesis proposes theories, formalisms and applications for opening up semantic publishing to an effective interaction between scholarly documents (e.g., journal articles) and their related semantic and formal descriptions. In fact, the main aim of this work is to increase the users' comprehension of documents and to allow document enrichment, discovery and linkage to document-related resources and contexts, such as other articles and raw scientific data. In order to achieve these goals, this thesis investigates and proposes solutions for three of the main issues that semantic publishing promises to address, namely: the need of tools for linking document text to a formal representation of its meaning, the lack of complete metadata schemas for describing documents according to the publishing vocabulary, and absence of effective user interfaces for easily acting on semantic publishing models and theories.
Resumo:
Der Einsatz von Penningfallen in der Massenspektrometrie hat zu einem einmaligen Genauigkeitssprung geführt. Dadurch wurden Massenwerte verschiedenster Atome zu wichtigen Eingangsparametern bei immer mehr physikalischen Fragestellungen. Die Massenspektrometrie mit Hilfe von Penningfallen basiert auf der Bestimmung der freien Zyklotronfrequenz eines Ions in einem homogenen Magnetfeld νc=qB/(2πm). Sie wird mit Flugzeitmethode (TOF-ICR) bestimmt, wobei eine relative Massenungenauigkeit δm/m von wenigen 10^-9 bei Nukliden mit Lebensdauern von <500 ms erreicht wird. Dies wurde durch die im Rahmen dieser Arbeit erstmals in der Penningfallen-Massenspektrometrie eingesetzten Ramsey-Methode möglich. Dabei werden zeitlich separierte, oszillierenden Feldern zur resonanten Ionenanregung genutzt, um die Frequenzmessung durch die Flugzeitmethode zu verbessern. Damit wurden am Penningfallenmassenspektrometer ISOLTRAP an ISOLDE/CERN die Massen der Nuklide 26,27Al und 38,39Ca bestimmt. Alle Massen wurden in die „Atomic Mass Evaluation“ eingebettet. Die Massenwerte von 26Al und 38Ca dienten insbesondere zu Tests des Standardmodells. Um mit Massenwerten fundamentale Symmetrien oder die Quantenelektrodynamik (QED) in extremen Feldern zu testen wurde ein neues Penningfallenprojekt (PENTATRAP) für hochpräzise Massenmessungen an hochgeladenen Ionen konzipiert. In dieser Doktorarbeit wurde vornehmlich die Entwicklung der Penningfallen betrieben. Eine Neuerung bei Penningfallenexperimenten ist dabei die permanente Beobachtung des Magnetfeldes B und seiner zeitlichen Fluktuationen durch so genannte „Monitorfallen“.
Resumo:
Die Analyse tandem-repetitiver DNA-Sequenzen hat einen festen Platz als genetisches Typisierungsverfahren in den Breichen der stammesgeschichtlichen Untersuchung, der Verwandtschaftsanalyse und vor allem in der forensischen Spurenkunde, bei der es durch den Einsatz der Multiplex-PCR-Analyse von Short Tandem Repeat-Systemen (STR) zu einem Durchbruch bei der Aufklärung und sicheren Zuordnung von biologischen Tatortspuren kam. Bei der Sequenzierung des humanen Genoms liegt ein besonderes Augenmerk auf den genetisch polymorphen Sequenzvariationen im Genom, den SNPs (single nucleotide polymorphisms). Zwei ihrer Eigenschaften – das häufige Vorkommen innerhalb des humanen Genoms und ihre vergleichbar geringe Mutationsrate – machen sie zu besonders gut geeigneten Werkzeugen sowohl für die Forensik als auch für die Populationsgenetik.rnZum Ziel des EU-Projekts „SNPforID“, aus welchem die vorliegende Arbeit entstanden ist, wurde die Etablierung neuer Methoden zur validen Typisierung von SNPs in Multiplexverfahren erklärt. Die Berücksichtigung der Sensitivität bei der Untersuchung von Spuren sowie die statistische Aussagekraft in der forensischen Analyse standen dabei im Vordergrund. Hierfür wurden 52 autosomale SNPs ausgewählt und auf ihre maximale Individualisierungsstärke hin untersucht. Die Untersuchungen der ersten 23 selektierten Marker stellen den ersten Teil der vorliegenden Arbeit dar. Sie umfassen die Etablierung des Multiplexverfahrens und der SNaPshot™-Typisierungsmethode sowie ihre statistische Auswertung. Die Ergebnisse dieser Untersuchung sind ein Teil der darauf folgenden, in enger Zusammenarbeit der Partnerlaboratorien durchgeführten Studie der 52-SNP-Multiplexmethode. rnEbenfalls im Rahmen des Projekts und als Hauptziel der Dissertation erfolgten Etablierung und Evaluierung des auf der Microarray-Technologie basierenden Verfahrens der Einzelbasenverlängerung auf Glasobjektträgern. Ausgehend von einer begrenzten DNA-Menge wurde hierbei die Möglichkeit der simultanen Hybridisierung einer möglichst hohen Anzahl von SNP-Systemen untersucht. Die Auswahl der hierbei eingesetzten SNP-Marker erfolgte auf der Basis der Vorarbeiten, die für die Etablierung des 52-SNP-Multiplexes erfolgreich durchgeführt worden waren. rnAus einer Vielzahl von Methoden zur Genotypisierung von biallelischen Markern hebt sich das Assay in seiner Parallelität und der Einfachheit des experimentellen Ansatzes durch eine erhebliche Zeit- und Kostenersparnis ab. In der vorliegenden Arbeit wurde das „array of arrays“-Prinzip eingesetzt, um zur gleichen Zeit unter einheitlichen Versuchsbedingungen zwölf DNA-Proben auf einem Glasobjektträger zu typisieren. Auf der Basis von insgesamt 1419 typisierten Allelen von 33 Markern konnte die Validierung mit einem Typisierungserfolg von 86,75% abgeschlossen werden. Dabei wurden zusätzlich eine Reihe von Randbedingungen in Bezug auf das Sonden- und Primerdesign, die Hybridisierungsbedingungen sowie physikalische Parameter der laserinduzierten Fluoreszenzmessung der Signale ausgetestet und optimiert. rn
Resumo:
Diese Arbeit ist ein Beitrag zu den schnell wachsenden Forschungsgebieten der Nano-Biotechnologie und Nanomedizin. Sie behandelt die spezifische Gestaltung magnetischer Nanomaterialien für verschiedene biomedizinische Anwendungsgebiete, wie beispielsweise Kontrastmittel für die magnetische Resonanztomographie (MRT) oder "theragnostische" Agenzien für simultane optische/MR Detektion und Behandlung mittels photodynamischer Therapie (PDT).rnEine Vielzahl magnetischer Nanopartikel (NP) mit unterschiedlichsten magnetischen Eigenschaften wurden im Rahmen dieser Arbeit synthetisiert und erschöpfend charakterisiert. Darüber hinaus wurde eine ganze Reihe von Oberflächenmodifizierungsstrategien entwickelt, um sowohl die kolloidale als auch die chemische Stabilität der Partikel zu verbessern, und dadurch den hohen Anforderungen der in vitro und in vivo Applikation gerecht zu werden. Diese Strategien beinhalteten nicht nur die Verwendung bi-funktionaler und multifunktioneller Polymerliganden, sondern auch die Kondensation geeigneter Silanverbindungen, um eine robuste, chemisch inerte und hydrophile Siliziumdioxid- (SiO2) Schale um die magnetischen NP auszubilden.rnGenauer gesagt, der Bildungsmechanismus und die magnetischen Eigenschaften monodisperser MnO NPs wurden ausgiebig untersucht. Aufgrund ihres einzigartigen magnetischen Verhaltens eignen sich diese NPs besonders als (positive) Kontrastmittel zur Verkürzung der longitudinalen Relaxationszeit T1, was zu einer Aufhellung im entsprechenden MRT-Bild führt. Tatsächlich wurde dieses kontrastverbessernde Potential in mehreren Studien mit unterschiedlichen Oberflächenliganden bestätigt. Au@MnO „Nanoblumen“, auf der anderen Seite, sind Vertreter einer weiteren Klasse von Nanomaterialien, die in den vergangenen Jahren erhebliches Interesse in der wissenschaftlichen Welt geweckt hat und oft „Nano-hetero-Materialien“ genannt wird. Solche Nano-hetero-partikel vereinen die individuellen physikalischen und chemischen Eigenschaften der jeweiligen Komponenten in einem nanopartikulärem System und erhöhen dadurch die Vielseitigkeit der möglichen Anwendungen. Sowohl die magnetischen Merkmale von MnO, als auch die optischen Eigenschaften von Au bieten die Möglichkeit, diese „Nanoblumen“ für die kombinierte MRT und optische Bildgebung zu verwenden. Darüber hinaus erlaubt das Vorliegen zweier chemisch unterschiedlicher Oberflächen die gleichzeitige selektive Anbindung von Katecholliganden (auf MnO) und Thiolliganden (auf Au). Außerdem wurde das therapeutische Potential von magnetischen NPs anhand von MnO NPs demonstriert, die mit dem Photosensibilisator Protoporhyrin IX (PP) funktionalisiert waren. Bei Bestrahlung mit sichtbarem Licht initiiert PP die Produktion von zytotoxisch-reaktivem Sauerstoff. Wir zeigen, dass Nierenkrebszellen, die mit PP-funktionalisierten MnO NPs inkubiert wurden nach Bestrahlung mit Laserlicht verenden, während sie ohne Bestrahlung unverändert bleiben. In einem ähnlichen Experiment untersuchten wir die Eigenschaften von SiO2 beschichteten MnO NPs. Dafür wurde eigens eine neuartige SiO2-Beschichtungsmethode entwickelt, die einer nachfolgende weitere Anbindung verschiedenster Liganden und die Einlagerung von Fluoreszenzfarbstoffen durch herkömmliche Silan- Sol-Gel Chemie erlaubt. Die Partikel zeigten eine ausgezeichnete Stabilität in einer ganzen Reihe wässriger Lösungen, darunter auch physiologische Kochsalzlösung, Pufferlösungen und humanes Blutserum, und waren weniger anfällig gegenüber Mn-Ionenauswaschung als einfache PEGylierte MnO NPs. Des Weiteren konnte bewiesen werden, dass die dünne SiO2 Schicht nur einen geringen Einfluss auf das magnetische Verhalten der NPs hatte, so dass sie weiterhin als T1-Kontrastmittel verwendet werden können. Schließlich konnten zusätzlich FePt@MnO NPs hergestellt werden, welche die individuellen magnetischen Merkmale eines ferromagnetischen (FePt) und eines antiferromagnetischen (MnO) Materials vereinen. Wir zeigen, dass wir die jeweiligen Partikelgrößen, und damit das resultierende magnetische Verhalten, durch Veränderung der experimentellen Parameter variieren können. Die magnetische Wechselwirkung zwischen beiden Materialien kann dabei auf Spinkommunikation an der Grenzfläche zwischen beiden NP-Sorten zurückgeführt werden.rn
Resumo:
The Large Hadron Collider, located at the CERN laboratories in Geneva, is the largest particle accelerator in the world. One of the main research fields at LHC is the study of the Higgs boson, the latest particle discovered at the ATLAS and CMS experiments. Due to the small production cross section for the Higgs boson, only a substantial statistics can offer the chance to study this particle properties. In order to perform these searches it is desirable to avoid the contamination of the signal signature by the number and variety of the background processes produced in pp collisions at LHC. Much account assumes the study of multivariate methods which, compared to the standard cut-based analysis, can enhance the signal selection of a Higgs boson produced in association with a top quark pair through a dileptonic final state (ttH channel). The statistics collected up to 2012 is not sufficient to supply a significant number of ttH events; however, the methods applied in this thesis will provide a powerful tool for the increasing statistics that will be collected during the next LHC data taking.
Resumo:
The aging population has become a burning issue for all modern societies around the world recently. There are two important issues existing now to be solved. One is how to continuously monitor the movements of those people having suffered a stroke in natural living environment for providing more valuable feedback to guide clinical interventions. The other one is how to guide those old people effectively when they are at home or inside other buildings and to make their life easier and convenient. Therefore, human motion tracking and navigation have been active research fields with the increasing number of elderly people. However, motion capture has been extremely challenging to go beyond laboratory environments and obtain accurate measurements of human physical activity especially in free-living environments, and navigation in free-living environments also poses some problems such as the denied GPS signal and the moving objects commonly presented in free-living environments. This thesis seeks to develop new technologies to enable accurate motion tracking and positioning in free-living environments. This thesis comprises three specific goals using our developed IMU board and the camera from the imaging source company: (1) to develop a robust and real-time orientation algorithm using only the measurements from IMU; (2) to develop a robust distance estimation in static free-living environments to estimate people’s position and navigate people in static free-living environments and simultaneously the scale ambiguity problem, usually appearing in the monocular camera tracking, is solved by integrating the data from the visual and inertial sensors; (3) in case of moving objects viewed by the camera existing in free-living environments, to firstly design a robust scene segmentation algorithm and then respectively estimate the motion of the vIMU system and moving objects. To achieve real-time orientation tracking, an Adaptive-Gain Orientation Filter (AGOF) is proposed in this thesis based on the basic theory of deterministic approach and frequency-based approach using only measurements from the newly developed MARG (Magnet, Angular Rate, and Gravity) sensors. To further obtain robust positioning, an adaptive frame-rate vision-aided IMU system is proposed to develop and implement fast vIMU ego-motion estimation algorithms, where the orientation is estimated in real time from MARG sensors in the first step and then used to estimate the position based on the data from visual and inertial sensors. In case of the moving objects viewed by the camera existing in free-living environments, a robust scene segmentation algorithm is firstly proposed to obtain position estimation and simultaneously the 3D motion of moving objects. Finally, corresponding simulations and experiments have been carried out.
Resumo:
Seasonal snow cover is of great environmental and socio-economic importance for the European Alps. Therefore a high priority has been assigned to quantifying its temporal and spatial variability. Complementary to land-based monitoring networks, optical satellite observations can be used to derive spatially comprehensive information on snow cover extent. For understanding long-term changes in alpine snow cover extent, the data acquired by the Advanced Very High Resolution Radiometer (AVHRR) sensors mounted onboard the National Oceanic and Atmospheric Association (NOAA) and Meteorological Operational satellite (MetOp) platforms offer a unique source of information. In this paper, we present the first space-borne 1 km snow extent climatology for the Alpine region derived from AVHRR data over the period 1985–2011. The objective of this study is twofold: first, to generate a new set of cloud-free satellite snow products using a specific cloud gap-filling technique and second, to examine the spatiotemporal distribution of snow cover in the European Alps over the last 27 yr from the satellite perspective. For this purpose, snow parameters such as snow onset day, snow cover duration (SCD), melt-out date and the snow cover area percentage (SCA) were employed to analyze spatiotemporal variability of snow cover over the course of three decades. On the regional scale, significant trends were found toward a shorter SCD at lower elevations in the south-east and south-west. However, our results do not show any significant trends in the monthly mean SCA over the last 27 yr. This is in agreement with other research findings and may indicate a deceleration of the decreasing snow trend in the Alpine region. Furthermore, such data may provide spatially and temporally homogeneous snow information for comprehensive use in related research fields (i.e., hydrologic and economic applications) or can serve as a reference for climate models.
Resumo:
Radiocarbon dating by means of accelerator mass spectrometry (AMS) is a well-established method for samples containing carbon in the milligram range. However, the measurement of small samples containing less than 50 lg carbon often fails. It is difficult to graphitise these samples and the preparation is prone to contamination. To avoid graphitisation, a solution can be the direct measurement of carbon dioxide. The MICADAS, the smallest accelerator for radiocarbon dating in Zurich, is equipped with a hybrid Cs sputter ion source. It allows the measurement of both, graphite targets and gaseous CO2 samples, without any rebuilding. This work presents experiences dealing with small samples containing 1-40 lg carbon. 500 unknown samples of different environmental research fields have been measured yet. Most of the samples were measured with the gas ion source. These data are compared with earlier measurements of small graphite samples. The performance of the two different techniques is discussed and main contributions to the blank determined. An analysis of blank and standard data measured within years allowed a quantification of the contamination, which was found to be of the order of 55 ng and 750 ng carbon (50 pMC) for the gaseous and the graphite samples, respectively. For quality control, a number of certified standards were measured using the gas ion source to demonstrate reliability of the data.