934 resultados para Real Root Isolation Methods
Resumo:
Plant phylogenetic estimates are most likely to be reliable when congruent evidence is obtained independently from the mitochondrial, plastid, and nuclear genomes with all methods of analysis. Here, results are presented from separate and combined genomic analyses of new and previously published data, including six and nine genes (8,911 bp and 12,010 bp, respectively) for different subsets of taxa that suggest Amborella + Nymphaeales (water lilies) are the first-branching angiosperm lineage. Before and after tree-independent noise reduction, most individual genomic compartments and methods of analysis estimated the Amborella + Nymphaeales basal topology with high support. Previous phylogenetic estimates placing Amborella alone as the first extant angiosperm branch may have been misled because of a series of specific problems with paralogy, suboptimal outgroups, long-branch taxa, and method dependence. Ancestral character state reconstructions differ between the two topologies and affect inferences about the features of early angiosperms.
Resumo:
We present a method which allows the isolation of fragments from genes coding for homologous proteins via PCR when only one block of conserved amino acids is available. Sets of degenerated primers are defined by reverse translation of the conserved amino acids such that each set contains not more than 128 different sequences. The second primer binding site is provided by a special cassette that is designed such that it does not allow binding of the second primer prior to being copied by DNA synthesis. The cassette is ligated to partially-digested chromosomal DNA. The second primer is biotinylated to allow elimination of PCR products carrying degenerated primers on both sides via streptavidin binding. Fragments obtained after amplification and enrichment are cloned and sequenced. The feasibility of this method was demonstrated in a model experiment, where degenerated primers were deduced from six conserved amino acids within the family of homologs to the Escherichia coli Vsr protein.
Resumo:
We describe here a method, based on iterative colony filter screening, for the rapid isolation of binding specificities from a large synthetic repertoire of human antibody fragments in single-chain Fv configuration. Escherichia coli cells, expressing the library of antibody fragments, are grown on a porous master filter, in contact with a second filter coated with the antigen, onto which antibodies secreted by the bacteria are able to diffuse. Detection of antigen binding on the second filter allows the recovery of a number of E.coli cells, including those expressing the binding specificity of interest, which can be submitted to a second round of screening for the isolation of specific monoclonal antibodies. We tested the methodology using as antigen the ED-B domain of fibronectin, a marker of angiogenesis. From an antibody library of 7 × 108 clones, we recovered a number of specifically-binding antibodies of different aminoacid sequence. The antibody clone showing the strongest enzyme-linked immunosorbent assay signal (ME4C) was further characterised. Its epitope on the ED-B domain was mapped using the SPOT synthesis method, which uses a set of decapeptides spanning the antigen sequence synthesised and anchored on cellulose. ME4C binds to the ED-B domain with a dissociation constant Kd = 1 × 10–7 M and specifically stains tumour blood vessels, as shown by immunohistochemical analysis on tumour sections of human and murine origin.
Resumo:
Effective transcript profiling in animal systems requires isolation of homogenous tissue or cells followed by faithful mRNA amplification. Linear amplification based on cDNA synthesis and in vitro transcription is reported to maintain representation of mRNA levels, however, quantitative data demonstrating this as well as a description of inherent limitations is lacking. We show that published protocols produce a template-independent product in addition to amplifying real target mRNA thus reducing the specific activity of the final product. We describe a modified amplification protocol that minimizes the generation of template-independent product and can therefore generate the desired microgram quantities of message-derived material from 100 ng of total RNA. Application of a second, nested round of cDNA synthesis and in vitro transcription reduces the required starting material to 2 ng of total RNA. Quantitative analysis of these products on Caenorhabditis elegans Affymetrix GeneChips shows that this amplification does not reduce overall sensitivity and has only minor effects on fidelity.
Resumo:
The transformation-associated recombination (TAR) cloning technique allows selective and accurate isolation of chromosomal regions and genes from complex genomes. The technique is based on in vivo recombination between genomic DNA and a linearized vector containing homologous sequences, or hooks, to the gene of interest. The recombination occurs during transformation of yeast spheroplasts that results in the generation of a yeast artificial chromosome (YAC) containing the gene of interest. To further enhance and refine the TAR cloning technology, we determined the minimal size of a specific hook required for gene isolation utilizing the Tg.AC mouse transgene as a targeted region. For this purpose a set of vectors containing a B1 repeat hook and a Tg.AC-specific hook of variable sizes (from 20 to 800 bp) was constructed and checked for efficiency of transgene isolation by a radial TAR cloning. When vectors with a specific hook that was ≥60 bp were utilized, ∼2% of transformants contained circular YACs with the Tg.AC transgene sequences. Efficiency of cloning dramatically decreased when the TAR vector contained a hook of 40 bp or less. Thus, the minimal length of a unique sequence required for gene isolation by TAR is ∼60 bp. No transgene-positive YAC clones were detected when an ARS element was incorporated into a vector, demonstrating that the absence of a yeast origin of replication in a vector is a prerequisite for efficient gene isolation by TAR cloning.
Resumo:
The association of a particular mitochondrial DNA (mtDNA) mutation with different clinical phenotypes is a well-known feature of mitochondrial diseases. A simple genotype–phenotype correlation has not been found between mutation load and disease expression. Tissue and intercellular mosaicism as well as mtDNA copy number are thought to be responsible for the different clinical phenotypes. As disease expression of mitochondrial tRNA mutations is mostly in postmitotic tissues, studies to elucidate disease mechanisms need to be performed on patient material. Heteroplasmy quantitation and copy number estimation using small patient biopsy samples has not been reported before, mainly due to technical restrictions. In order to resolve this problem, we have developed a robust assay that utilizes Molecular Beacons to accurately quantify heteroplasmy levels and determine mtDNA copy number in small samples carrying the A8344G tRNALys mutation. It provides the methodological basis to investigate the role of heteroplasmy and mtDNA copy number in determining the clinical phenotypes.
Resumo:
The tobacco N and Arabidopsis RPS2 genes, among several recently cloned disease-resistance genes, share highly conserved structure, a nucleotide-binding site (NBS). Using degenerate oligonucleotide primers for the NBS region of N and RPS2, we have amplified and cloned the NBS sequences from soybean. Each of these PCR-derived NBS clones detected low-or moderate-copy soybean DNA sequences and belongs to 1 of 11 different classes. Sequence analysis showed that all PCR clones encode three motifs (P-loop, kinase-2, and kinase-3a) of NBS nearly identical to those in N and RPS2. The intervening region between P-loop and kinase-3a of the 11 classes has high (26% average) amino acid sequence similarity to the N gene although not as high (19% average) to RPS2. These 11 classes represent a superfamily of NBS-containing soybean genes that are homologous to N and RPS2. Each class or subfamily was assessed for its positional association with known soybean disease-resistance genes through near-isogenic line assays, followed by linkage analysis in F2 populations using restriction fragment length polymorphisms. Five of the 11 subfamilies have thus far been mapped to the vicinity of known soybean genes for resistance to potyviruses (Rsv1 and Rpv), Phytophthora root rot (Rps1, Rps2, and Rps3), and powdery mildew (rmd). The conserved N- or RPS2-homologous NBS sequences and their positional associations with mapped soybean-resistance genes suggest that a number of the soybean disease-resistance genes may belong to this superfamily. The candidate subfamilies of NBS-containing genes identified by genetic mapping should greatly facilitate the molecular cloning of disease-resistance genes.
Resumo:
The genes for the protein synthesis elongation factors Tu (EF-Tu) and G (EF-G) are the products of an ancient gene duplication, which appears to predate the divergence of all extant organismal lineages. Thus, it should be possible to root a universal phylogeny based on either protein using the second protein as an outgroup. This approach was originally taken independently with two separate gene duplication pairs, (i) the regulatory and catalytic subunits of the proton ATPases and (ii) the protein synthesis elongation factors EF-Tu and EF-G. Questions about the orthology of the ATPase genes have obscured the former results, and the elongation factor data have been criticized for inadequate taxonomic representation and alignment errors. We have expanded the latter analysis using a broad representation of taxa from all three domains of life. All phylogenetic methods used strongly place the root of the universal tree between two highly distinct groups, the archaeons/eukaryotes and the eubacteria. We also find that a combined data set of EF-Tu and EF-G sequences favors placement of the eukaryotes within the Archaea, as the sister group to the Crenarchaeota. This relationship is supported by bootstrap values of 60-89% with various distance and maximum likelihood methods, while unweighted parsimony gives 58% support for archaeal monophyly.
Resumo:
While the strong biotin-avidin interaction has been widely used for the detection of biomolecules, its irreversibility complicates their isolation. We report the synthesis of a photocleavable biotin derivative (PCB) which eliminates many limitations of existing methods. This reagent contains a biotin moiety linked through a spacer arm to a photocleavable moiety, which reacts selectively with primary amino groups on any substrate. In experiments using [leucine]-enkephalin as a model substrate, we show that PCB retains its high affinity toward avidin/streptavidin and allows rapid (< 5 min) and efficient (> 99%) photorelease of the substrate in a completely unaltered form. Photocleavable biotins should be useful in numerous applications involving the isolation of proteins, nucleic acids, lipids, and cells.
Resumo:
Universal trees based on sequences of single gene homologs cannot be rooted. Iwabe et al. [Iwabe, N., Kuma, K.-I., Hasegawa, M., Osawa, S. & Miyata, T. (1989) Proc. Natl. Acad. Sci. USA 86, 9355-9359] circumvented this problem by using ancient gene duplications that predated the last common ancestor of all living things. Their separate, reciprocally rooted gene trees for elongation factors and ATPase subunits showed Bacteria (eubacteria) as branching first from the universal tree with Archaea (archaebacteria) and Eucarya (eukaryotes) as sister groups. Given its topical importance to evolutionary biology and concerns about the appropriateness of the ATPase data set, an evaluation of the universal tree root using other ancient gene duplications is essential. In this study, we derive a rooting for the universal tree using aminoacyl-tRNA synthetase genes, an extensive multigene family whose divergence likely preceded that of prokaryotes and eukaryotes. An approximately 1600-bp conserved region was sequenced from the isoleucyl-tRNA synthetases of several species representing deep evolutionary branches of eukaryotes (Nosema locustae), Bacteria (Aquifex pyrophilus and Thermotoga maritima) and Archaea (Pyrococcus furiosus and Sulfolobus acidocaldarius). In addition, a new valyl-tRNA synthetase was characterized from the protist Trichomonas vaginalis. Different phylogenetic methods were used to generate trees of isoleucyl-tRNA synthetases rooted by valyl- and leucyl-tRNA synthetases. All isoleucyl-tRNA synthetase trees showed Archaea and Eucarya as sister groups, providing strong confirmation for the universal tree rooting reported by Iwabe et al. As well, there was strong support for the monophyly (sensu Hennig) of Archaea. The valyl-tRNA synthetase gene from Tr. vaginalis clustered with other eukaryotic ValRS genes, which may have been transferred from the mitochondrial genome to the nuclear genome, suggesting that this amitochondrial trichomonad once harbored an endosymbiotic bacterium.
Resumo:
Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.
Innovative analytical strategies for the development of sensor devices and mass spectrometry methods
Resumo:
Il lavoro presentato in questa tesi di Dottorato è incentrato sullo sviluppo di strategie analitiche innovative basate sulla sensoristica e su tecniche di spettrometria di massa in ambito biologico e della sicurezza alimentare. Il primo capitolo tratta lo studio di aspetti metodologici ed applicativi di procedure sensoristiche per l’identificazione e la determinazione di biomarkers associati alla malattia celiaca. In tale ambito, sono stati sviluppati due immunosensori, uno a trasduzione piezoelettrica e uno a trasduzione amperometrica, per la rivelazione di anticorpi anti-transglutaminasi tissutale associati a questa malattia. L’innovazione di questi dispositivi riguarda l’immobilizzazione dell’enzima tTG nella conformazione aperta (Open-tTG), che è stato dimostrato essere quella principalmente coinvolta nella patogenesi. Sulla base dei risultati ottenuti, entrambi i sistemi sviluppati si sono dimostrati una valida alternativa ai test di screening attualmente in uso per la diagnosi della celiachia. Rimanendo sempre nel contesto della malattia celiaca, ulteriore ricerca oggetto di questa tesi di Dottorato, ha riguardato lo sviluppo di metodi affidabili per il controllo di prodotti “gluten-free”. Il secondo capitolo tratta lo sviluppo di un metodo di spettrometria di massa e di un immunosensore competitivo per la rivelazione di prolammine in alimenti “gluten-free”. E’ stato sviluppato un metodo LC-ESI-MS/MS basato su un’analisi target con modalità di acquisizione del segnale selected reaction monitoring per l’identificazione di glutine in diversi cereali potenzialmente tossici per i celiaci. Inoltre ci si è focalizzati su un immunosensore competitivo per la rivelazione di gliadina, come metodo di screening rapido di farine. Entrambi i sistemi sono stati ottimizzati impiegando miscele di farina di riso addizionata di gliadina, avenine, ordeine e secaline nel caso del sistema LC-MS/MS e con sola gliadina nel caso del sensore. Infine i sistemi analitici sono stati validati analizzando sia materie prime (farine) che alimenti (biscotti, pasta, pane, etc.). L’approccio sviluppato in spettrometria di massa apre la strada alla possibilità di sviluppare un test di screening multiplo per la valutazione della sicurezza di prodotti dichiarati “gluten-free”, mentre ulteriori studi dovranno essere svolti per ricercare condizioni di estrazione compatibili con l’immunosaggio competitivo, per ora applicabile solo all’analisi di farine estratte con etanolo. Terzo capitolo di questa tesi riguarda lo sviluppo di nuovi metodi per la rivelazione di HPV, Chlamydia e Gonorrhoeae in fluidi biologici. Si è scelto un substrato costituito da strips di carta in quanto possono costituire una valida piattaforma di rivelazione, offrendo vantaggi grazie al basso costo, alla possibilità di generare dispositivi portatili e di poter visualizzare il risultato visivamente senza la necessità di strumentazioni. La metodologia sviluppata è molto semplice, non prevede l’uso di strumentazione complessa e si basa sull’uso della isothermal rolling-circle amplification per l’amplificazione del target. Inoltre, di fondamentale importanza, è l’utilizzo di nanoparticelle colorate che, essendo state funzionalizzate con una sequenza di DNA complementare al target amplificato derivante dalla RCA, ne permettono la rivelazione a occhio nudo mediante l’uso di filtri di carta. Queste strips sono state testate su campioni reali permettendo una discriminazione tra campioni positivi e negativi in tempi rapidi (10-15 minuti), aprendo una nuova via verso nuovi test altamente competitivi con quelli attualmente sul mercato.
Resumo:
Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.
Resumo:
Non-suicidal self-injury (NSSI), such as cutting and burning, is a widespread social problem among lesbian, gay, bisexual, transgender, queer, and questioning (LGBTQ) youth. Extant research indicates that this population is more than twice as likely to engage in NSSI than heterosexual and cisgender (non-transgender) youth. Despite the scope of this social problem, it remains relatively unexamined in the literature. Research on other risk behaviors among LGBTQ youth indicates that experiencing homophobia and transphobia in key social contexts such as families, schools, and peer relationships contributes to health disparities among this group. Consequently, the aims of this study were to examine: (1) the relationship between LGBTQ youth's social environments and their NSSI behavior, and (2) whether/how specific aspects of the social environment contribute to an understanding of NSSI among LGBTQ youth. This study was conducted using an exploratory, sequential mixed methods design with two phases. The first phase of the study involved analysis of transcripts from interviews conducted with 44 LGBTQ youth recruited from a community-based organization. In this phase, five qualitative themes were identified: (1) Violence; (2) Misconceptions, Stigma, and Shame; (3) Negotiating LGBTQ Identity; (4) Invisibility and Isolation; and (5) Peer Relationships. Results from the qualitative phase were used to identify key variables and specify statistical models in the second, quantitative, phase of the study, using secondary data from a survey of 252 LGBTQ youth. The qualitative phase revealed how LGBTQ youth, themselves, described the role of the social environment in their NSSI behavior, while the quantitative phase was used to determine whether the qualitative findings could be used to predict engagement in NSSI among a larger sample of LGBTQ youth. The quantitative analyses found that certain social-environmental factors such as experiencing physical abuse at home, feeling unsafe at school, and greater openness about sexual orientation significantly predicted the likelihood of engaging in NSSI among LGBTQ youth. Furthermore, depression partially mediated the relationships between family physical abuse and NSSI and feeling unsafe at school and NSSI. The qualitative and quantitative results were compared in the interpretation phase to explore areas of convergence and incongruence. Overall, this study's findings indicate that social-environmental factors are salient to understanding NSSI among LGBTQ youth. The particular social contexts in which LGBTQ youth live significantly influence their engagement in this risk behavior. These findings can inform the development of culturally relevant NSSI interventions that address the social realities of LGBTQ youth's lives.
Resumo:
Com o objetivo de aumentar o lucro de plantas químicas, a Otimização em Tempo Real (RTO) é uma ferramenta que busca determinar as condições ótimas operacionais do processo em estado estacionário, respeitando as restrições operacionais estabelecidas. Neste trabalho foi realizada a implementação prática de um ciclo RTO em um processo de destilação por recompressão de vapor (VRD), propileno-propano, da Refinaria de Paulínia (Petrobras S.A.), a partir de dados históricos da planta. Foram consideradas as principais etapas de um ciclo clássico de RTO: identificação de estado estacionário, reconciliação de dados, estimação de parâmetros e otimização econômica. Essa unidade foi modelada, simulada e otimizada em EMSO (Environment for Modeling, Simulation and Optimization), um simulador de processos orientado a equações desenvolvido no Brasil. Foram analisados e comparados dois métodos de identificação de estado estacionário, um baseado no teste estatístico F e outro baseado em wavelets. Ambos os métodos tiveram resultados semelhantes e mostraram-se capazes de identificar os estados estacionários de forma satisfatória, embora seja necessário o ajuste de parâmetros na sua implementação. Foram identificados alguns pontos estacionários para serem submetidos ao ciclo RTO e foi possível verificar a importância de partir de um estado estacionário para a continuidade do ciclo, já que essa é uma premissa do método. A partir dos pontos analisados, os resultados deste estudo mostram que o RTO é capaz de aumentar o ganho econômico entre 2,5-24%, dependendo das condições iniciais consideradas, o que pode representar ganhos de até 18 milhões de dólares por ano. Além disso, para essa unidade, verificou-se que o compressor é um equipamento limitante no aumento de ganho econômico do processo.