965 resultados para ITS applications


Relevância:

60.00% 60.00%

Publicador:

Resumo:

O cenário atual de repositórios digitais mundialmente distribuídos estimula estudos diversificados com os quais esse trabalho visa contribuir, objetivando um levantamento dos repositórios de instituições de ensino superior no Brasil, verificando a eficácia de uma ferramenta experimental no tratamento e análise dos dados e usando como fontes os diretórios Registry of Open Access Repositories (ROAR), Directory of Open Access Repositories (OpenDOAR), Diretório Luso-Brasileiro de Periódicos e Repositórios de Acesso Livre e a lista L_repositories. A ferramenta experimental Google Fusion Tables foi aplicada nos dados dos repositórios institucionais pesquisados, categorizando suas principais características: Instituição mantenedora, Natureza da instituição, Local, Região geográfica, Software adotado e sua versão, adoção do padrão Dublin Core e quantidade de trabalhos disponibilizados na data do estudo. Foram identificados 49 repositórios que em agosto de 2013 disponibilizavam 396.881 itens, sendo as instituições federais as com maior povoamento e o repositório LUME o primeiro em volume de itens; a região Sudeste com o maior número de repositórios e volume de itens disponibilizados; o DSpace o software predominante, com maior utilização da versão 1.6.2 e o padrão de metadados Dublin Core em todas as aplicações desse software. Este estudo comprovou a eficácia e utilidade do FusionTables, permitindo caracterizar o panorama atual de repositórios de instituições de ensino superior no Brasil. Os resultados foram disponibilizados em um Catálogo de Repositórios de Instituições de Ensino Superior no Brasil e um Mapa interativo dos Repositórios de Instituições de Ensino Superior no Brasil.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Los avances experimentados en los últimos años en las tecnologías basadas en el procesamiento de las fotografías digitales, permite abordar proyectos de modelización 3D de inscripciones romanas, como el realizado en el Museo Arqueológico Nacional (Madrid). La utilización de esta tecnología innovadora aporta a los especialistas mejores reproducciones que la fotografía convencional, que supondrán un enriquecimiento de las bases de datos epigráficas, pero su utilidad se extiende también a la propia enseñanza de la Epigrafía.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Emotional Intelligence (EI) has increasingly gained widespread popularity amongst both lay people and scientists in a wide range of contexts and across several research areas. In spite of rigorous inquiry into its applications in educational, social, health and clinical settings, substantial disagreement exists regarding the definition of EI, with respect to both terminology and operationalizations. Actually, there is a consensus about a conceptual distinction between Trait EI, or trait emotional self-efficacy (Petrides & Furnham, 2001), and Ability EI, or cognitive-emotional ability (Mayer & Salovey, 1997). Trait EI is measured via self-report questionnaires, whereas Ability EI is assessed via maximum performance tests. Moreover, EI is the broadest of the emotional constructs, and it subsumes various constructs, as Emotional Awareness (Lane & Schwartz, 1987). To date, EI research has focused primarily on adults, with fewer studies conducted with child samples. The aim of the present study is to investigate the role of different models of EI in childhood and early adolescence (N = 670; 353 females; Mage= 10.25 years ; SD = 1.57). In addition, a further goal is to evaluate the relationship of each construct with personality, non verbal cognitive intelligence, school performance, peer relationships, and affective disorders (anxiety and depression). Results shows significant correlations between Trait EI and Emotional Awareness, whereas Trait and Ability EI appear as independent constructs. We also found significant positive associations between age and Ablity EI and Emotional Awareness (although with add of verbal productivity), while gender differences emerged in favour of females in all EI-related measures. The results provide evidence that Trait EI is partially determined by all of the Big Five personality dimensions, but independent of cognitive ability. Finally, the present study highlights the role of EI on social interactions, school performance and, especially, a negative relationship between Trait EI and psychopathology.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this Thesis we consider a class of second order partial differential operators with non-negative characteristic form and with smooth coefficients. Main assumptions on the relevant operators are hypoellipticity and existence of a well-behaved global fundamental solution. We first make a deep analysis of the L-Green function for arbitrary open sets and of its applications to the Representation Theorems of Riesz-type for L-subharmonic and L-superharmonic functions. Then, we prove an Inverse Mean value Theorem characterizing the superlevel sets of the fundamental solution by means of L-harmonic functions. Furthermore, we establish a Lebesgue-type result showing the role of the mean-integal operator in solving the homogeneus Dirichlet problem related to L in the Perron-Wiener sense. Finally, we compare Perron-Wiener and weak variational solutions of the homogeneous Dirichlet problem, under specific hypothesis on the boundary datum.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A major challenge in imaging is the detection of small amounts of molecules of interest. In the case of magnetic resonance imaging (MRI) their signals are typically concealed by the large background signal of e.g. the tissue of the body. This problem can be tackled by hyperpolarization which increases the NMR signals up to several orders of magnitude. However, this strategy is limited for 1H, the most widely used nucleus in NMR andrnMRI, because the enormous number of protons in the body screen the small amount of hyperpolarized ones.Here, I describe a method giving rise to high 1H MRI contrast for hyperpolarized molecules against a large background signal. The contrast is based on the J-coupling induced rephasing of the NMR signal of molecules hyperpolarized via parahydrogen induce polarization (PHIP) and it can easily be implemented in common pulse sequences.rnrnHyperpolarization methods typically require expensive technical equipment (e.g. lasers or microwaves) and most techniques work only in batch mode, thus the limited lifetime of the hyperpolarization is limiting its applications. Therefore, the second part of my thesis deals with the simple and efficient generation of an hyperpolarization.These two achievements open up alternative opportunities to use the standard MRI nucleus 1H for e.g. metabolic imaging in the future.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this thesis, the author presents a query language for an RDF (Resource Description Framework) database and discusses its applications in the context of the HELM project (the Hypertextual Electronic Library of Mathematics). This language aims at meeting the main requirements coming from the RDF community. in particular it includes: a human readable textual syntax and a machine-processable XML (Extensible Markup Language) syntax both for queries and for query results, a rigorously exposed formal semantics, a graph-oriented RDF data access model capable of exploring an entire RDF graph (including both RDF Models and RDF Schemata), a full set of Boolean operators to compose the query constraints, fully customizable and highly structured query results having a 4-dimensional geometry, some constructions taken from ordinary programming languages that simplify the formulation of complex queries. The HELM project aims at integrating the modern tools for the automation of formal reasoning with the most recent electronic publishing technologies, in order create and maintain a hypertextual, distributed virtual library of formal mathematical knowledge. In the spirit of the Semantic Web, the documents of this library include RDF metadata describing their structure and content in a machine-understandable form. Using the author's query engine, HELM exploits this information to implement some functionalities allowing the interactive and automatic retrieval of documents on the basis of content-aware requests that take into account the mathematical nature of these documents.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This work has mainly focused on the poly (L-lactide) (PLLA) which is a material for multiple applications with performances comparable to those of petrochemical polymers (PP, PS, PET, etc. ...), readily recyclable and also compostable. However, PLLA has certain shortcomings that limit its applications. It is a brittle, hard polymer with a very low elongation at break, hydrophobic, exhibits low crystallization kinetics and takes a long time to degrade. The properties of PLLA may be modified by copolymerization (random, block, and graft) of L-lactide monomers with other co-monomers. In this thesis it has been studied the crystallization and morphology of random copolymers poly (L-lactide-ran-ε-caprolactone) with different compositions of the two monomers since the physical, mechanical, optical and chemical properties of a material depend on this behavior. Thermal analyses were performed by differential scanning calorimetry (DSC) and thermogravimetry (TGA) to observe behaviors due to the different compositions of the copolymers. The crystallization kinetics and morphology of poly (L-lactide-ran-ε-caprolactone) was investigated by polarized light optical microscopy (PLOM) and differential scanning calorimetry (DSC). Their thermal behavior was observed with crystallization from melt. It was observed that with increasing amounts of PCL in the copolymer, there is a decrease of the thermal degradation. Studies on the crystallization kinetics have shown that small quantities of PCL in the copolymer increase the overall crystallization kinetics and the crystal growth rate which decreases with higher quantities of PCL.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Silicon-on-insulator (SOI) is rapidly emerging as a very promising material platform for integrated photonics. As it combines the potential for optoelectronic integration with the low-cost and large volume manufacturing capabilities and they are already accumulate a huge amount of applications in areas like sensing, quantum optics, optical telecommunications and metrology. One of the main limitations of current technology is that waveguide propagation losses are still much higher than in standard glass-based platform because of many reasons such as bends, surface roughness and the very strong optical confinement provided by SOI. Such high loss prevents the fabrication of efficient optical resonators and complex devices severely limiting the current potential of the SOI platform. The project in the first part deals with the simple waveguides loss problem and trying to link that with the polarization problem and the loss based on Fabry-Perot Technique. The second part of the thesis deals with the Bragg Grating characterization from again the point of view of the polarization effect which leads to a better stop-band use filters. To a better comprehension a brief review on the basics of the SOI and the integrated Bragg grating ends up with the fabrication techniques and some of its applications will be presented in both parts, until the end of both the third and the fourth chapters to some results which hopefully make its precedent explanations easier to deal with.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This dissertation was conducted within the project Language Toolkit, which has the aim of integrating the worlds of work and university. In particular, it consists of the translation into English of documents commissioned by the Italian company TR Turoni and its primary purpose is to demonstrate that, in the field of translation for companies, the existing translation support tools and software can optimise and facilitate the translation process. The work consists of five chapters. The first introduces the Language Toolkit project, the TR Turoni company and its relationship with the CERMAC export consortium. After outlining the current state of company internationalisation, the importance of professional translators in enhancing the competitiveness of companies that enter new international markets is highlighted. Chapter two provides an overview of the texts to be translated, focusing on the textual function and typology and on the addressees. After that, manual translation and the main software developed specifically for translators are described, with a focus on computer-assisted translation (CAT) and machine translation (MT). The third chapter presents the target texts and the corresponding translations. Chapter four is dedicated to the analysis of the translation process. The first two texts were translated manually, with the support of a purpose-built specialized corpus. The following two documents were translated with the software SDL Trados Studio 2011 and its applications. The last texts were submitted to the Google Translate service and to a process of pre and post-editing. Finally, in chapter five conclusions are drawn about the main limits and potentialities of the different translations techniques. In addition to this, the importance of an integrated use of all available instruments is underlined.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Die vorliegende Arbeit behandelt die Entwicklung und Verbesserung von linear skalierenden Algorithmen für Elektronenstruktur basierte Molekulardynamik. Molekulardynamik ist eine Methode zur Computersimulation des komplexen Zusammenspiels zwischen Atomen und Molekülen bei endlicher Temperatur. Ein entscheidender Vorteil dieser Methode ist ihre hohe Genauigkeit und Vorhersagekraft. Allerdings verhindert der Rechenaufwand, welcher grundsätzlich kubisch mit der Anzahl der Atome skaliert, die Anwendung auf große Systeme und lange Zeitskalen. Ausgehend von einem neuen Formalismus, basierend auf dem großkanonischen Potential und einer Faktorisierung der Dichtematrix, wird die Diagonalisierung der entsprechenden Hamiltonmatrix vermieden. Dieser nutzt aus, dass die Hamilton- und die Dichtematrix aufgrund von Lokalisierung dünn besetzt sind. Das reduziert den Rechenaufwand so, dass er linear mit der Systemgröße skaliert. Um seine Effizienz zu demonstrieren, wird der daraus entstehende Algorithmus auf ein System mit flüssigem Methan angewandt, das extremem Druck (etwa 100 GPa) und extremer Temperatur (2000 - 8000 K) ausgesetzt ist. In der Simulation dissoziiert Methan bei Temperaturen oberhalb von 4000 K. Die Bildung von sp²-gebundenem polymerischen Kohlenstoff wird beobachtet. Die Simulationen liefern keinen Hinweis auf die Entstehung von Diamant und wirken sich daher auf die bisherigen Planetenmodelle von Neptun und Uranus aus. Da das Umgehen der Diagonalisierung der Hamiltonmatrix die Inversion von Matrizen mit sich bringt, wird zusätzlich das Problem behandelt, eine (inverse) p-te Wurzel einer gegebenen Matrix zu berechnen. Dies resultiert in einer neuen Formel für symmetrisch positiv definite Matrizen. Sie verallgemeinert die Newton-Schulz Iteration, Altmans Formel für beschränkte und nicht singuläre Operatoren und Newtons Methode zur Berechnung von Nullstellen von Funktionen. Der Nachweis wird erbracht, dass die Konvergenzordnung immer mindestens quadratisch ist und adaptives Anpassen eines Parameters q in allen Fällen zu besseren Ergebnissen führt.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The American Psychological Association Board of Directors established an ad hoc task force on psychopharmacology to explore the desirability and feasibility of psychopharmacology prescription privileges for psychologists. In this context, the Task Force's charges were to determine the competence criteria necessary for training psychologists to provide service to patients receiving medications and to develop and evaluate the necessary curricular models. This article summarizes the Task Force's major recommendations and provides specific information regarding its training recommendations . It is hoped that this article will encourage broad discussion of psychology's most appropriate integration of psychopharmacology knowledge and its applications into its training programs and professional activities.

Relevância:

60.00% 60.00%

Publicador: