970 resultados para 100-250 µm
Resumo:
Este trabalho teve como objetivo o desenvolvimento de uma nova técnica para determinação do tamanho médio e da distribuição de tamanho de bolhas de ar em meio aquoso. A nova técnica, denominada de LTM-BSizer, uma vez otimizada, foi aplicada na caracterização das bolhas geradas por diversos métodos utilizados tanto na flotação para tratamento de efluentes líquidos quanto na flotação de partículas minerais e, principalmente, na investigação de parâmetros operacionais e do efeito do tamanho de bolhas na flotação de partículas minerais (quartzo como modelo) finas (40-10 µm) e ultrafinas (<10 µm). A técnica LTM-BSizer é baseada no conceito da captura, ou seja, ao contrário das técnicas fotográficas até agora propostas, onde as imagens (fotos ou vídeos) das bolhas em movimento foram obtidas com visores verticais, este método obteve as imagens das bolhas estabilizadas em um visor disposto na horizontal. Entre as vantagens em relação aos métodos fotográficos existentes destacam-se a melhor qualidade das imagens e a capacidade de medir distribuições de tamanho de bolha com grande amplitude, desde microbolhas (<100 µm) até bolhas maiores (~ 1 a 3 mm). Os métodos de geração de bolhas pesquisados foram: microbolhas geradas por despressurização de água saturada com ar em um vaso saturador (processo de flotação por ar dissolvido-FAD) ou por uma bomba centrífuga multifase (novo equipamento para geração de microbolhas), injeção de mistura ar-líquido através de um constritor tipo venturi (destaque na flotação não convencional), injeção de ar em cilindro inox poroso (comumente aplicado para dispersão de gás) e bolhas geradas em uma célula de flotação por ar induzido (FAI), convencional de bancada Para todos os métodos citados, exceto o último, a distribuição de tamanho de bolha foi avaliada numa coluna em acrílico com 200 cm de altura e 72 mm de diâmetro, onde através de um ponto de amostragem parte do fluxo foi conduzida até o visor. Os resultados obtidos com esta técnica foram, para os diâmetros médios de bolha: 30 a 70 µm para FAD, 65 a 130 µm para bomba multifase, 200 a 1400 µm para venturi, 500 a 1300 µm para FAI e 500 a 1000 µm para o cilindro poroso. A influência de alguns parâmetros operacionais na formação das bolhas foi estudada em detalhe e os resultados obtidos mostraram uma boa correspondência com os valores encontrados na literatura e em outros casos, elucidaram efeitos considerados contraditórios na literatura técnica. Este trabalho demonstrou que, o tamanho médio e a distribuição de tamanho das microbolhas, não são influenciados pela pressão de saturação no intervalo de 294 a 588 kPa, mas sim pela quantidade de bolhas e pelo tempo de retenção Também foi constatado que a diminuição da tensão superficial da água (adição de 30 mg/L de oleato de sódio) aumenta consideravelmente (3 a 8 vezes) o número de microbolhas na FAD a baixas pressões de saturação (196 e 294 kPa). O tamanho e a distribuição de tamanho de bolhas geradas em constrições de fluxo tipo venturi variam em função dos parâmetros concentração de tensoativo, velocidade superficial de líquido (UL) e razão gás/líquido (Qr). Uma pequena diminuição da tensão superficial, de 73 para 68 mN/m, provocada pela adição de 20 mg/L do tensoativo DF 250, foi suficiente para diminuir consideravelmente o tamanho das bolhas geradas, permanecendo constante para concentrações maiores, sugerindo que esta seja a concentração crítica de coalescência (CCC) para este sistema. Um aumento de UL (mantendo Qr constante) e diminuição de Qr (com UL constante) levaram a distribuições com menor amplitude e diâmetro médio. No caso das microbolhas geradas através da bomba multifase, o tamanho de bolhas diminuiu com a pressão até atingir o limite de solubilidade teórico ar/líquido. O tamanho das bolhas gerados através de placa porosa e FAI apresentaram boa correspondência com os reportados na literatura e em ambas as técnicas foi, de novo, encontrada, para DF 250, a mesma CCC igual a 20 mg/L. O sistema de flotação de partículas finas e ultrafinas, foi estudado via recuperação de finos de quartzo (50% < 10µm) em coluna de laboratório. As variáveis estudadas foram; a distribuição de tamanho de bolhas e a concentração de coletor (amina). Os resultados obtidos mostraram que a recuperação das frações mais finas aumenta com a diminuição do tamanho de bolhas de acordo com os modelos existentes de flotação. Entretanto, foi encontrado, na captura de partículas ultrafinas pelas bolhas, um valor ótimo de tamanho de partícula. Assim, a captura diminui com o tamanho de partícula até 5-7 µm e aumenta, de novo, nas frações menores. Esses resultados são discutidos em termos de um mecanismo de difusão como fenômeno predominante nos mecanismos de adesão bolha-partícula.
Resumo:
Fundada em 1902, a Tribuna de Petrópolis acumula 108 anos de publicação na cidade serrana do interior do Estado do Rio de Janeiro. Sendo um jornal local, de circulação restrita aos limites do município, sua existência por mais de um século reflete o esforço de seus diretores pela superação de crises e também pela manutenção de um poder simbólico de identidades sobre a cidade. Analisa-se a trajetória do jornal a partir de três fases de existência e da relação que o mesmo estabeleceu com Petrópolis em cada uma delas: no início do século XX, quando de sua fundação, momento em que representa o reposicionamento político do Grupo de Petrópolis após a perda da capital para Niterói; na metade do século, entre os anos 1950 e 1970, quando o jornal atravessa uma profunda crise e tem sua falência decretada; e nas décadas finais do século XX, quando o veículo se reorganiza e, sob o comando de herdeiros da Família Imperial, constrói para si uma nova relação de identificação e representação com a cidade de Petrópolis. Como jornal-empresa e parte de um conglomerado de comunicação, a Tribuna de Petrópolis chega ao século XXI e se estabelece como instituição pautada por escolhas e decisões estratégicas de administração e relacionamento com o mercado local de anunciantes.
Resumo:
O objetivo desta tese é investigar cuidadosamente a interação entre a intuição e a razão, propondo um novo modelo cognitivo que explicaria a existência, interação e comportamento dos chamados "dois sistemas" que, supõe-se, coabitem a mente humana. O modelo que será postulado nesta dissertação integra e explica estes dois sistemas; e o sistema NUMBO derivado dos projetos de Hofstadter (1995) é capaz de demonstrar sua plausibilidade psicológica e sua tàctibilidade de modelagem e simulação em uma arquitetura computacional. Serão utilizadas variações do problema da bola e do taco, pertencente ao Cognitive Reflection Test proposto por Frederick (2005), para ilustrar como o processo pelo qual as pessoas passam pode se dar, bem como serão utilizados resultados da psicologia experimental, para validar a plausibilidade psicológica dos mecanismos propostos. A contribuição deste trabalho é, portanto, explicitar as "coleções de processos" que estão operando em cada "caixa-preta" do sistema 1 ou sistema 2. Desta fom1a, pretende-se dar um pequeno passo em direção à teorias mais elaboradas sobre intuição e razão.
Resumo:
Esta dissertação busca identificar a utilização de operações off-balance e instrumentos híbridos pelas empresas brasileiras. Seu objetivo é, além da utilização, verificar se o índice de transnacionalidade e o rating de crédito influenciam na decisão de utilizar ou não tais operações e instrumentos. Para isso, foram observadas as demonstrações financeiras e ratings das empresas participantes do índice IBrX-100 no período dos últimos três anos (2009, 2010 e 2011). Já para considerar o efeito da utilização das operações e instrumentos em razão do quão internacionalizadas são as empresas, este trabalho utiliza como critério a participação das empresas no ranking das transnacionais brasileiras no mesmo período acima citado. A análise revela que as empresas brasileiras mais internacionalizadas são mais sofisticadas que as menos internacionalizas e consequentemente se utilizam mais de instrumentos híbridos e operações off-balance. Ainda nesta linha, quando se divide as empresas por quartil, se chega ao resultado esperado que quanto mais internacionalizada a empresa, mais ela se utiliza destas operações e instrumentos. Além disso, também conclui que o rating influencia na utilização destes instrumentos e operações; quanto pior, mais a empresa se utiliza. Isso ocorre quando a métrica é o rating nacional, e não foram encontradas fortes evidências em relação ao rating estrangeiro.
Resumo:
This paper examines the price impact of trading due to expected changes in the FTSE 100 index composition. We focus on the latter index because it employs publicly-known objective criteria to determine membership and hence it provides a natural context to investigate anticipatory trading e ects. We propose a panel-regression event study that backs out these anticipatory e ects by looking at the price impact of the ex-ante proba-bility of changing index membership status. Our ndings reveal that anticipative trading explains about 40% and 23% of the cumulative abnormal returns of additions and deletions, respectively. We con rm these in-sample results out of sample by tracking the performance of a trading strategy that relies on the addition/deletion probability estimates. The perfor-mance is indeed very promising in that it entails an average daily excess return of 11 basis points over the FTSE 100 index.
Resumo:
Tendo em vista o controle da porosidade da matriz polimérica de micropartículas constituídas por blendas de poli(hidroxibutirato-co-hidroxivalerato) [P(HBHV)] e de poli- ε-caprolactona (PCL), o presente trabalho objetivou verificar a possibilidade de controle da liberação de fármacos associados a esses sistemas. Foram preparadas micropartículas constituídas de blendas de P(HBHV):PCL nas proporções de 100:0, 90:10 e 80:20 (m/m) pelo método de emulsificação/evaporação de solvente, variandose o volume de fase orgânica. Os modelos de fármacos utilizados foram a dexametasona e o acetato de dexametasona. As micropartículas obtidas apresentaram rendimento e eficiência de encapsulação satisfatória, entretanto, através de análises por microscopia óptica e microscopia eletrônica de varredura foi evidenciada a ocorrência de cristais de fármaco não encapsulado. Os diâmetros de partícula permaneceram em torno de 100 a 200 μm e variaram em função do volume de fase orgânica. A área superficial foi afetada pelo percentual de PCL na blenda e pela presença de cristais do fármaco nas formulações. A análise térmica das amostras demonstrou que o processo de obtenção alterou a estrutura cristalina do P(HBHV) e que a encapsulação dos fármacos levou à variação da sua temperatura de transição vítrea e cristalinidade. Os perfis de dissolução da dexametasona a partir das micropartículas apresentaram ajustes adequados ao modelo monoexponencial e foram semelhantes aos perfis apresentados pelo fármaco não encapsulado. Nas formulações contendo acetato de dexametasona houve liberação sustentada do fármaco por até 250 horas quando associado aos sistemas e a modelagem matemática indicou ajuste dos perfis ao modelo biexponencial. Evidenciou-se um aumento nos valores das constantes de liberação dos fármacos conforme o acréscimo do conteúdo de PCL na blenda.
Resumo:
Indexing is a passive investment strategy in which the investor weights bis portfolio to match the performance of a broad-based indexo Since severaI studies showed that indexed portfolios have consistently outperformed active management strategies over the last decades, an increasing number of investors has become interested in indexing portfolios IateIy. Brazilian financiaI institutions do not offer indexed portfolios to their clients at this point in time. In this work we propose the use of indexed portfolios to track the performance oftwo ofthe most important Brazilian stock indexes: the mOVESPA and the FGVIOO. We test the tracking performance of our modeI by a historical simulation. We applied several statistical tests to the data to verify how many stocks should be used to controI the portfolio tracking error within user specified bounds.
Resumo:
Neste trabalho, propomos uma especificação de modelo econométrico na forma reduzida, estimado por mínimos quadrados ordinários (MQO) e baseado em variáveis macroeconômicas, com o objetivo de explicar os retornos trimestrais do índice de ações IBRX-100, entre 2001 e 2015. Testamos ainda a eficiência preditiva do modelo e concluímos que o erro de previsão estimado em janela móvel, com re-estimação de MQO a cada rodada, e utilização de VAR auxiliar para projeção dos regressores, é significativamente inferior ao erro de previsão associado à hipótese de Random Walk para o horizonte de previsão de um trimestre a frente.
Resumo:
INTRODUCTION With the advent of Web 2.0, social networking websites like Facebook, MySpace and LinkedIn have become hugely popular. According to (Nilsen, 2009), social networking websites have global1 figures of almost 250 millions unique users among the top five2, with the time people spend on those networks increasing 63% between 2007 and 2008. Facebook alone saw a massive growth of 566% in number of minutes in the same period of time. Furthermore their appeal is clear, they enable users to easily form persistent networks of friends with whom they can interact and share content. Users then use those networks to keep in touch with their current friends and to reconnect with old friends. However, online social network services have rapidly evolved into highly complex systems which contain a large amount of personally salient information derived from large networks of friends. Since that information varies from simple links to music, photos and videos, users not only have to deal with the huge amount of data generated by them and their friends but also with the fact that it‟s composed of many different media forms. Users are presented with increasing challenges, especially as the number of friends on Facebook rises. An example of a problem is when a user performs a simple task like finding a specific friend in a group of 100 or more friends. In that case he would most likely have to go through several pages and make several clicks till he finds the one he is looking for. Another example is a user with more than 100 friends in which his friends make a status update or another action per day, resulting in 10 updates per hour to keep up. That is plausible, especially since the change in direction of Facebook to rival with Twitter, by encouraging users to update their status as they do on Twitter. As a result, to better present the web of information connected to a user the use of better visualizations is essential. The visualizations used nowadays on social networking sites haven‟t gone through major changes during their lifetimes. They have added more functionality and gave more tools to their users, but still the core of their visualization hasn‟t changed. The information is still presented in a flat way in lists/groups of text and images which can‟t show the extra connections pieces of information. Those extra connections can give new meaning and insights to the user, allowing him to more easily see if that content is important to him and the information related to it. However showing extra connections of information but still allowing the user to easily navigate through it and get the needed information with a quick glance is difficult. The use of color coding, clusters and shapes becomes then essential to attain that objective. But taking into consideration the advances in computer hardware in the last decade and the software platforms available today, there is the opportunity to take advantage of 3D. That opportunity comes in because we are at a phase were the hardware and the software available is ready for the use of 3D in the web. With the use of the extra dimension brought by 3D, visualizations can be constructed to show the content and its related information to the user at the same screen and in a clear way. Also it would allow a great deal of interactivity. Another opportunity to create better information‟s visualization presents itself in the form of the open APIs, specifically the ones made available by the social networking sites. Those APIs allow any developers to create their own applications or sites taking advantage of the huge amount of information there is on those networks. Specifically to this case, they open the door for the creation of new social network visualizations. Nevertheless, the third dimension is by itself not enough to create a better interface for a social networking website, there are some challenges to overcome. One of those challenges is to make the user understand what the system is doing during the interaction with the user. Even though that is important in 2D visualizations, it becomes essential in 3D due to the extra dimension. To overcome that challenge it‟s necessary the use of the principles of animations defined by the artists at Walt Disney Studios (Johnston, et al., 1995). By applying those principles in the development of the interface, the actions of the system in response to the user inputs became clear and understandable. Furthermore, a user study needs to be performed so the users‟ main goals and motivations, while navigating the social network, are revealed. Their goals and motivations are important in the construction of an interface that reflects the user expectations for the interface, but also helps in the development of appropriate metaphors. Those metaphors have an important role in the interface, because if correctly chosen they help the user understand the elements of the interface instead of making him memorize it. The last challenge is the use of 3D visualization on the web, since there have been several attempts to bring 3D into it, mainly with the various versions of VRML which were destined to failure due to the hardware limitations at the time. However, in the last couple of years there has been a movement to make the necessary tools to finally allow developers to use 3D in a useful way, using X3D or OpenGL but especially flash. This thesis argues that there is a need for a better social network visualization that shows all the dimensions of the information connected to the user and that allows him to move through it. But there are several characteristics the new visualization has to possess in order for it to present a real gain in usability to Facebook‟s users. The first quality is to have the friends at the core of its design, and the second to make use of the metaphor of circles of friends to separate users in groups taking into consideration the order of friendship. To achieve that several methods have to be used, from the use of 3D to get an extra dimension for presenting relevant information, to the use of direct manipulation to make the interface comprehensible, predictable and controllable. Moreover animation has to be use to make all the action on the screen perceptible to the user. Additionally, with the opportunity given by the 3D enabled hardware, the flash platform, through the use of the flash engine Papervision3D and the Facebook platform, all is in place to make the visualization possible. But even though it‟s all in place, there are challenges to overcome like making the system actions in 3D understandable to the user and creating correct metaphors that would allow the user to understand the information and options available to him. This thesis document is divided in six chapters, with Chapter 2 reviewing the literature relevant to the work described in this thesis. In Chapter 3 the design stage that resulted in the application presented in this thesis is described. In Chapter 4, the development stage, describing the architecture and the components that compose the application. In Chapter 5 the usability test process is explained and the results obtained through it are presented and analyzed. To finish, Chapter 6 presents the conclusions that were arrived in this thesis.
Resumo:
Com a realização deste trabalho pretendeu-se estabelecer o perfil urinário de níveis de biomarcadores do stress oxidativo (5-HMU; UAc; MDA; 8-OHdG) em indivíduos saudáveis (grupo controlo) comparando com o de doenças cardiovasculares (grupo CVD) de modo a avaliar o seu potencial como possíveis biomarcadores da possibilidade de ocorrência de CVD. A extração dos compostos alvos foi realizada por recurso a uma nova técnica extrativa - microextração com adsorvente empacotado em seringa (MEPS) controlada digitalmente (eVol). A análise dos biomarcadores foi efetuada por cromatografia líquida de ultra eficiência (UHPLC) utilizando como coluna analítica a HSS T3 (100 mm × 2,1 mm, 1,7 μm de tamanho da partícula) e com um sistema deteção de fotodiodos (PDA). Otimizaram-se os parâmetros experimentais com influência no processo extrativo, nomeadamente no que se refere ao tipo de adsorvente, á influência do pH, ao volume de amostra, ao número de ciclos extrativos, lavagem e ao volume de eluição. Foram ensaiadas diferentes condições experimentais e selecionadas as que corresponderam a uma maior eficiência extrativa, expressa pela área total relativa dos analitos e reprodutibilidade. Os melhores resultados foram obtidos usando como adsorvente C8, o pH da amostra ajustado a 6, o adsorvente foi carregado com 5x50 μL de amostra e a eluição com 1x50 μL de 0,01% ácido formico e 3x50 μL de 20% metanol. Para a separação cromatográfica dos analitos usou-se uma fase móvel binária (0,01% ácido fórmico:20% metanol), em modo isocrático e um fluxo de 250 μL min-1. O método analítico foi validado em termos de seletividade, linearidade, limite de deteção (LOD), limite de quantificação (LOQ), efeito matriz, exatidão e precisão (intra e interdias) e aplicada a determinação de biomarcadores alvo nos dois grupos estudados, obtiveram-se bons resultados em termos seletividade e linearidade (R2>0,9906), os valores de LOD e LOQ obtidos foram baixos, variando entre 0,00005 - 0,72 μg mL-1 e 0,00023 – 2,31 μg mL-1 respetivamente. Os resultados da percentagem de recuperação (91,06 – 123,02 %), precisão intra-dia (0,95 – 8,34 %), precisão inter-dia (4,58 -6,33 %) e o efeito de matriz (60,11 – 110,29 %) deste método foram satisfatórios. A aplicação da metodologia validada aos dois grupos em estudo permitiu concluir que as concentrações de UAc e MDA entre os dois grupos, contrariamente ao 5-HMU e ao 8- OhdG cujas concentrações são estatisticamente diferentes entre o grupo controlam e o grupo CVD.
Resumo:
A doença celíaca (DC) é um distúrbio de má absorção intestinal, causada pela ingestão de glúten e tem como único tratamento uma dieta livre de glúten (DLG). Este estudo teve como objectivo determinar a prevalência, a incidência e os melhores marcadores sorológicos de DC na Região Autónoma da Madeira (RAM), através da análise dos pedidos no serviço de Patologia Clínica do Hospital Dr. Nélio Mendonça, com marcadores de DC durante o período de Janeiro de 2002 a Dezembro de 2010. A determinação dos marcadores sorológicos (anticorpos antitransglutaminase tecidular IgA (AATA) e IgG (AATG), anticorpos anti-gliadina IgA (AAGA) e IgG (AAGG)) foi realizada no analisador automático ImmunoCAP 250, que utiliza a técnica Fluoro-Enzyme ImmunoAssay (FEIA). Dos 1004 pedidos que requereram marcadores sorológicos para a DC, 214 obtiveram um ou mais marcadores positivos, que pertencem a 130 indivíduos distintos. Quarenta e quatro (44) indivíduos realizaram biópsia intestinal e 38 foram positivas com aspectos morfológicos compatíveis com o diagnóstico de doença celíaca. A doença atingiu mais as crianças que os adultos e foi mais frequente no sexo feminino do que no masculino. A prevalência de DC na RAM de acordo com os resultados das biópsias foi de 15,3 casos por 100.000 habitantes e a incidência foi de 1,9/100.000 habitantes, com uma tendência crescente nos últimos anos. O anticorpo anti-transglutaminase tecidular IgA foi o marcador mais sensível (95,5%), correspondendo ao melhor marcador na detecção inicial de DC. Todas as amostras de crianças com idade inferior a 2 anos devem ser adicionalmente testados para anticorpos anti-gliadina, devido à sua maior sensibilidade (92,3%) em relação aos anticorpos anti-transglutaminase tecidular IgA (84,6%). Este trabalho procurou contribuir para um melhor conhecimento do perfil de doença celíaca da população da RAM.
Resumo:
A novel analytical approach, based on a miniaturized extraction technique, the microextraction by packed sorbent (MEPS), followed by ultrahigh pressure liquid chromatography (UHPLC) separation combined with a photodiode array (PDA) detection, has been developed and validated for the quantitative determination of sixteen biologically active phenolic constituents of wine. In addition to performing routine experiments to establish the validity of the assay to internationally accepted criteria (linearity, sensitivity, selectivity, precision, accuracy), experiments are included to assess the effect of the important experimental parameters on the MEPS performance such as the type of sorbent material (C2, C8, C18, SIL, and M1), number of extraction cycles (extract-discard), elution volume, sample volume, and ethanol content, were studied. The optimal conditions of MEPS extraction were obtained using C8 sorbent and small sample volumes (250 μL) in five extraction cycle and in a short time period (about 5 min for the entire sample preparation step). The wine bioactive phenolics were eluted by 250 μL of the mixture containing 95% methanol and 5% water, and the separation was carried out on a HSS T3 analytical column (100 mm × 2.1 mm, 1.8 μm particle size) using a binary mobile phase composed of aqueous 0.1% formic acid (eluent A) and methanol (eluent B) in the gradient elution mode (10 min of total analysis). The method gave satisfactory results in terms of linearity with r2-values > 0.9986 within the established concentration range. The LOD varied from 85 ng mL−1 (ferulic acid) to 0.32 μg mL−1 ((+)-catechin), whereas the LOQ values from 0.028 μg mL−1 (ferulic acid) to 1.08 μg mL−1 ((+)-catechin). Typical recoveries ranged between 81.1 and 99.6% for red wines and between 77.1 and 99.3% for white wines, with relative standard deviations (RSD) no larger than 10%. The extraction yields of the MEPSC8/UHPLC–PDA methodology were found between 78.1 (syringic acid) and 99.6% (o-coumaric acid) for red wines and between 76.2 and 99.1% for white wines. The inter-day precision, expressed as the relative standard deviation (RSD%), varied between 0.2% (p-coumaric and o-coumaric acids) and 7.5% (gentisic acid) while the intra-day precision between 0.2% (o-coumaric and cinnamic acids) and 4.7% (gallic acid and (−)-epicatechin). On the basis of analytical validation, it is shown that the MEPSC8/UHPLC–PDA methodology proves to be an improved, reliable, and ultra-fast approach for wine bioactive phenolics analysis, because of its capability for determining simultaneously in a single chromatographic run several bioactive metabolites with high sensitivity, selectivity and resolving power within only 10 min. Preliminary studies have been carried out on 34 real whole wine samples, in order to assess the performance of the described procedure. The new approach offers decreased sample preparation and analysis time, and moreover is cheaper, more environmentally friendly and easier to perform as compared to traditional methodologies.