999 resultados para Razão de variáveis normais
Resumo:
As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.
Resumo:
É inegável que as passagens B 560 e B 586 da Crítica da Razão Pura sejam paradoxais. Isso porque, embora Kant tenha afirmado haver uma possibilidade da liberdade na solução da terceira antinomia (B 560), de forma aparentemente contraditória a esse resultado, alega, numa passagem da nona seção do segundo capítulo do segundo livro da dialética transcendental, sequer ter tido o problema de demonstrar a possibilidade daquele conceito. Esse problema, correlato à dificuldade de compatibilizar- se aquelas passagens, é a causa motriz do engendramento deste texto dissertativo. Logo, por meio dele, busca-se explicar por que razão tais passagens não são contraditórias. Não o são, porque a acepção do termo “possibilidade” nelas empregadas é ambígua, ou seja, possui mais de um significado. Como veremos, distinguindo o significado dos conceitos de possibilidade aí envolvidos, pode-se defender uma possibilidade lógica da idéia transcendental da liberdade enquanto númeno. Mas seria tal possibilidade lógica do conceito da liberdade transcendental um princípio regulativo? Que princípio regulativo seria ele? Ao se analisar esse segundo problema dissertativo, delimitando-se a segunda questão à relação da possibilidade da liberdade com os princípios regulativos em seu uso empírico, conclui-se que estes conceitos têm acepções totalmente distintas. Isso porque, uma vez que eles possuem diferentes funções no itinerário da razão: enquanto um procura deixar em aberto um espaço numênico, o outro, abre espaço para o regresso empírico das inferências, a fim de que a razão especulativa não se atenha indevidamente a um incondicionado ilusório.
Resumo:
Campanhas de amostragem são indispensáveis para o desenvolvimento da pesquisa e do planejamento de lavra. A perfilagem geofísica é um método de amostragem indireta, que vem se mostrando muito eficaz com o desenvolvimento de novas tecnologias para medições de grandezas físicas. Com baixo custo de operação e versatilidade de manuseio a perfilagem geofísica pode ser realizada concomitantemente com as operações de lavra, proporcionando reposta imediata do parâmetro medido. No entanto os métodos geofísicos de prospecção, por serem indiretos, não apresentam uma grande precisão e devido a isso os dados obtidos por perfilagem geofísica não podem ter a mesma importância que as informações obtidas por testemunhos de sondagem. O conceito de informação primária e secundária vem sendo amplamente discutido e aplicado devido à necessidade de uma melhoria do conhecimento do atributo geológico principal, desde que o mesmo se correlacione com algum outro parâmetro secundário. A redução de custos via aproveitamento de informações secundárias e métodos alternativos de amostragem também são fatores que influenciam essa aplicação Por este motivo, essa dissertação levanta o tema da aplicação de perfilagem geofísica de poço em depósitos de carvão para obtenção de informações secundárias. Concomitantemente a isso foram aplicadas metodologias capazes de combinar informações adquiridas por perfilagem geofísica, ou por um outro método, a um banco de dados obtido por amostragem com recuperação de testemunho. Concluiu-se que independente do método empregado para incorporação de informação secundária, as estimativas apresentam melhorias significativas quando comparadas com as estimativas sem a contemplação de informações secundárias. Conseqüentemente a aplicação de perfilagem pode ser uma ferramenta de extrema importância e confiável para obtenção de informação secundária e também para melhoria do planejamento de lavra para curto prazo.
Resumo:
A Doença de Gaucher (DG) é a doença de depósito mais comum. É causada pela deficiência da enzima -glicosidase (-gli), necessária para o catabolismo intralisossômico do glicocerebrosídio, sendo herdada de modo autossômico recessivo. Esta deficiência resulta em um acúmulo de glicocerebrosídio nos lisossomos de macrófagos derivados de monócitos em tecidos do sistema reticuloendotelial. No período de janeiro de 1982 a outubro de 2003 foram analisadas, bioquimicamente, 1081 amostras de sangue de pacientes com suspeita de DG. Nestas amostras foram medidas as atividades das enzimas -gli e quitotriosidase (QT). Foram diagnosticados 412 casos de DG (38,1%), sendo na sua grande maioria DG tipo 1. As regiões brasileiras de maior concentração destes pacientes foram as regiões sudeste, sul e nordeste. A idade média destes pacientes ao diagnóstico foi de 19 anos. A atividade da -gli de indivíduos com DG foi em média 10,7% daquela apresentada pelos indivíduos normais. A QT apresentou-se em média 269 vezes mais elevada no grupo de pacientes com DG. Nos 669 casos em que não foi confirmada a presença de DG, houve pacientes com Doença de Niemann-Pick tipos A, B ou C (44 casos), possíveis heterozigotos para DG (59 casos), pacientes com outras DL (19 casos) e outros EIM (3 casos) Em 508 casos não foi encontrado nenhum distúrbio metabólico. Foram analisadas as mutações de 128 indivíduos com DG, sendo que o genótipo N370S/L444P foi o mais freqüente (48,4%). Este estudo mostra que o protocolo bioquímico empregado foi eficiente para a detecção de DG, uma doença que se mostra bastante freqüente também no Brasil. Neste estudo também foi possível caracterizar o comportamento do pH ótimo, termoestabilidade, Km e Vmax da -gli em leucócitos de pacientes com DG e heterozigotos obrigatórios com diferentes genótipos comparando-os com indivíduos normais. Os resultados mostraram um comportamento diferente da enzima nos três grupos analisados. Esse comportamento variou conforme a mutação presente nos indivíduos. Não foi observado somente um único pH ótimo nos 3 grupos. A enzima de indivíduos normais mostrou uma faixa de pH de 5,0 a 5,4, a de heterozigotos, um único pH ou uma estreita faixa e a de indivíduos com DG, 2 picos de pH ótimo. O Km e a Vmax da enzima de heterozigotos variou desde igual até maior que aquele da enzima normal. Quando comparamos a enzima de indivíduos normais com aquela de pacientes com DG, observamos que nos genótipos N370S/N370S e N370S/IVS2+1 o Km foi maior e no grupo N370S/L444P o Km foi significativamente menor. A Vmax nos indivíduos com DG apresentou valores menores em relação aos indivíduos normais. A enzima de leucócitos de indivíduos normais, heterozigotos e homozigotos para DG, foi inativada a 60ºC. As diferenças de comportamento entre as enzimas dos três grupos analisados permitiram discriminá-los, ou seja, a enzima de indivíduos homozigotos apresentou uma maior atividade residual após 60 minutos de pré-incubação, sendo mais termoestável que os grupos de indivíduos normais e heterozigotos. . A mutação N370S produziu uma enzima mais estável e cataliticamente mais ativa que aquela da mutação L444P. Esta por sua vez, foi mais estável e ativa do que a mutação D409H. O mesmo aconteceu com os indivíduos homozigotos para DG, onde o comportamento bioquímico da b-gli foi determinado pela presença do alelo N370S. Portanto há um gradiente de estabilidade que vai de uma condição mais estável a uma condição menos estável. Este gradiente assemelha-se aquele da classificação do fenótipo clínico da DG. Os resultados nos permitem correlacionar diretamente a mutação N370S, mais estável cineticamente, com a forma clínica não neurológica da doença e a mutação menos estável cataliticamente (D409H) com a forma clínica neurológica da DG. Através deste trabalho foi possível obter informações sobre o comportamento da proteína em cada mutação estudada, seja ela em homo ou em heterozigose e estes dados podem colaborar para uma melhor distinção entre a enzima de indivíduos normais, heterozigotos e homozigotos para DG.
Resumo:
O objetivo principal deste trabalho foi a análise da variação de alguns parâmetros físico-químicos da qualidade das águas de pequenos rios urbanos com baixas a médias densidades de ocupação populacional nas áreas de drenagem de suas bacias hidrográficas. Para isso, foram selecionadas 4 bacias hidrográficas urbanas situadas na Região Metropolitana de Porto Alegre/RS: Arroios Mãe d‘Água e Moinho apresentando média densidade populacional bruta (cerca de 70 hab/ha), Arroio Capivara apresentando baixa densidade populacional (8 hab/ha próximo às nascentes da bacia e 33 hab/ha considerando a área até próximo à sua foz), e o Arroio Agronomia que apresenta um tributário relativamente bem preservado, com ocupação urbana residual (<2 hab/ha), considerado como referencia regional para a qualidade físico-química das águas. Os resultados mostraram que a população residente nestas áreas apresenta deficiências de atendimento do ponto de vista do saneamento básico (coleta e tratamento de esgotos sanitários, coleta de lixo e abastecimento de água) impondo aos moradores o uso de tecnologias de disposição local dos seus resíduos. Como resultado, os dados mostraram uma relação direta entre a densidade populacional e a presença de esgotos não tratados nos corpos d’água, e como conseqüência, observaram-se alterações importantes em quase todas as variáveis físico-químicas escolhidas para o monitoramento da qualidade das águas, quando comparadas com a condição referencial. Entre os modelos de regressão testados (linear, potência, logarítmico, exponencial e polinomial de segundo e terceiro graus) o modelo logarítmico apresentou melhor ajuste sobre os demais, indicando a possibilidade do seu uso para 21 das 26 variáveis.A forma logarítmica indica que, a partir de uma condição natural não urbanizada, mesmo pequenas densidades populacionais são capazes de alterar significativamente a qualidade das águas.
Resumo:
Este trabalho relata um estudo de sulfatação, em escala laboratorial, com objetivo de propor um tratamento para a recuperação seletiva de determinados metais presentes em lodos galvânicos (LG). Os metais de interesse são cobre, zinco e níquel e o agente promotor da sulfatação é a pirita, obtida de rejeitos de carvão mineral. A particularidade deste tratamento é o emprego simultâneo de dois resíduos perigosos como matériasprimas. Estes resíduos são gerados em grande quantidade em sítios de extração de carvão (rejeito piritoso) e empresas galvânicas (lodo galvânico). Os resíduos foram caracterizados por fluorescência de raios X (XRF), distribuição granulométrica e percentual de umidade. A caracterização química apresentou lodos com alta concentração de cobre, maior do que 14% (base seca). Na etapa de sulfatação, o lodo galvânico foi misturado com o rejeito piritoso e os parâmetros avaliados foram: razão lodo galvânico/rejeito piritoso, temperatura de sulfatação e tempo de patamar. Depois da sulfatação, o produto da reação foi lixiviado com água, em temperatura ambiente, por 15 min. Nesta etapa hidrometalúrgica, os parâmetros variáveis foram tempo de lixiviação e concentração de sólidos na polpa.As condições que melhor refletem o compromisso de recuperar os metais de interesse e a viabilidade econômica do processo foram alcançados com a razão 1:0,4 lodo galvânico/rejeito piritoso, 90 min de patamar e 550ºC de temperatura de sulfatação, para a etapa pirometalúrgica e 15 min de lixiviação e 14g.L-1 de sólidos em polpa como condições hidrometalúrgicas. Estas condições propiciaram a recuperação de 60% de zinco, 49% de níquel e 50% de cobre.
Resumo:
O presente trabalho objetivou avaliar os sistemas de gerenciamento de resíduos de serviços de saúde frente aos instrumentos legais e normativos vigentes no Brasil, acerca dos quais existem poucos estudos. O estudo envolveu coleta de dados reais, por um período contínuo de dois anos, analisando a eficiência da segregação, os sistemas de tratamento, e os custos decorrentes, em duas instituições de assistência à saúde em nível terciário (Hospital Escola do Sistema Único de Saúde - SUS e Hospital Conveniado). O sistema de gerenciamento de resíduos iniciou com um diagnóstico da situação das unidades hospitalares, definição das estratégias educativas de sensibilização, treinamento e capacitação do quadro funcional, com ênfase na segregação de resíduos. A avaliação dos custos, decorrentes da utilização de tecnologias de tratamento via esterilização por vapor úmido (hospital do SUS), e por oxidação térmica (hospital Conveniado), bem como dos custos estendeu-se ainda à disposição final dos resíduos. Foram analisados os índices e percentuais de geração das diferentes categorias de resíduos (infectantes, especiais, comuns e recicláveis) nos dois estabelecimentos. Estudo piloto prévio à implantação do sistema de gerenciamento, revelou um índice de geração total de resíduos de 3,5 kg/leito/dia no Hospital Conveniado, e de 2,6 kg/leito/dia no Hospital SUS. Os índices de geração de infectantes nos referidos hospitais foram de 1,3 (Conveniado) e 1,1 kg/leito/dia (SUS). Os dados do monitoramento contínuo (24 meses), demonstraram, em nível de significância de 5%, uma redução nos índices de geração de resíduos infectantes de cerca de 35% no Hospital Conveniado e de 38% no Hospital SUS, e um aumento significativo nos índices de geração de resíduos comuns e recicláveis, após a implantação dos sistemas de gerenciamento e dos programas educativos, indicando falhas na segregação anteriormente a estes. Os resultados confirmaram a influência positiva dos programas educativos e do sistema organizacional, e a possibilidade de serem alcançadas índices e percentuais ainda mais baixos que os preconizados pela literatura. Os resultados apresentaram, também, altas taxas de reencape de agulhas (41% das conectadas e 51% das desconectadas no Hospital SUS; 68% das conectadas e 55% das desconectadas no hospital Conveniado), dando indicativos do potencial de risco com saúde ocupacional a que estão expostos os profissionais, e da necessidade de reforçar os conceitos de auto cuidado com os mesmos. No tocante aos custos com os sistemas de gerenciamento, o Hospital Conveniado tem um custo final menor que o Hospital SUS. Porém, quando traduzido para paciente/dia, o Hospital SUS tem um custo de R$ 3,54 enquanto que no Hospital Conveniado o custo é de R$ 5,13, ou seja, 45,1% maior que no Hospital SUS, apesar da oferta de serviços ser semelhante. Para o tratamento de resíduos infectantes junto à fonte geradora com tecnologia de esterilização via vapor úmido e microondas, somados à despesa com serviços terceirizados para situações de contingência, tratamento de peças anatômicas e pérfuro-cortantes, o Hospital SUS tem um custo de R$ 0,57 paciente/dia enquanto o tratamento via incineração do Hospital Conveniado tem um custo de R$ 0,86 paciente/dia. Estes resultados evidenciam que o tratamento junto à fonte geradora, consideradas as situações avaliadas é mais vantajoso do ponto de vista econômico e ambiental. Os custos ambientais totais obtidos para o hospital SUS são de R$ 3,54 paciente/dia para R$ 5,13 por paciente/dia no hospital Conveniado. O trabalho fornece subsídios metodológicos para definição de índices e percentuais de geração, bem como para o cálculo dos custos envolvidos no gerenciamento que podem servir de base para aplicação em outros estabelecimentos de assistência à saúde.
Resumo:
A dinâmica de propagação da ruptura durante terremotos é um dos assuntos mais relevantes e complexos em Sismologia. Um critério constitutivo para a falha que descreva corretamente a relação das variáveis estáticas (tensões normais e tangenciais) com as variáveis cinéticas (deslocamentos e velocidades) na interface é necessário para efetuar uma análise dinâmica confiável. A fim de determinar um critério constitutivo para o deslizamento com atrito ao longo da falha sísmica, primeiramente apresentam-se métodos para caracterizar as superfícies deslizantes e discutem-se os principais critérios constitutivos que têm sido usados. Também são apresentados os resultados de um estudo experimental realizado, evidenciando, para sólidos metálicos em contato, uma lei constitutiva de variação do atrito com a velocidade. Um modelo numérico tridimensional baseado no Método dos Elementos Discretos (DEM) é usado para representar a região de rocha adjacente à falha. O modelo consiste de uma estrutura tridimensional periódica com massas concentradas nos nós, interconectadas por elementos visco-elásticos unidimensionais. Inicialmente, de acordo com modelos usuais em Sismologia, admite-se que o material é elástico, linear e homogêneo. Em uma segunda análise, a influência da não-homogeneidade do material é avaliada considerando que a massa específica, o módulo de Young e o coeficiente de atrito são campos aleatórios Gaussianos correlacionados. Na análise seguinte, o efeito da fratura na região de rocha adjacente à falha é também numericamente avaliado. Por fim, a influência de ruptura de micro-asperezas nas superfícies deslizantes é analisada. Através de simulação de Monte Carlo, as relações constitutivas macro (ou globais) para a falha são obtidas, admitindo como leis constitutivas micro (ou locais) os dois critérios mais usados em Sismologia: a lei de variação do atrito com a velocidade e a lei de variação do atrito com o deslizamento. Quando os blocos de rocha são admitidos serem elásticos e homogêneos não há um efeito de escala. Novamente, quando a rocha é considerada não-homogênea não há um efeito de escala significativo, apenas pequenas variações nos parâmetros das leis constitutivas macro em relação às leis micro são percebidas, exceto pela influência do campo aleatório do coeficiente de atrito, o qual apresenta um efeito de escala perceptível. A ocorrência de fratura nas proximidades da falha não causa modificações significativas nas leis constitutivas macro, apenas causa algumas oscilações em torno da lei sem fratura. Finalmente, obtém-se um critério constitutivo macro que leva em consideração a ruptura por cisalhamento das micro-asperezas nas superfícies deslizantes. O modelo é chamado lei modificada de variação do atrito com a velocidade e é considerado um critério constitutivo mais geral.
Resumo:
Examinamos urodinamicamente 46 crianças com mielomeningocele que foram classificadas em pressão de perda do detrusor maior de 40 cmH2O (33 pacientes) ou menor de 40 cmH2O (13 pacientes). As variáveis estudadas foram: idade, sexo, pressão intravesical, complacência vesical, contrações vesicais não-inibidas, capacidade vesical, tipo de esfíncter, hidronefrose, refluxo vesicoureteral e cicatriz renal. Os pacientes com pressão de perda do detrusor maior de 40 cmH2O foram tratados com cateterismo vesical intermitente limpo 4 x/dia e cloreto de oxibutinina na dose de 0,2 mg/kg/dose 3 x/dia. Após 30 dias de tratamento, avaliamos a resposta urodinâmica da pressão intravesical, complacência vesical, contrações vesicais não-inibidas e capacidade vesical. A idade dos pacientes com pressão de perda alta é significativamente maior. O sexo não foi significativamente diferente entre os dois grupos. A pressão intravesical e contrações vesicais não-inibidas são significativamente maiores nos pacientes com pressão de perda alta e a complacência vesical é significativamente menor nestes casos. Não houve correlação significativa entre capacidade vesical e pressão de perda. Também não houve correlação significativa entre o tipo de esfíncter e a capacidade vesical, contrações não-inibidas e pressão intravesical. Os pacientes com dissinergia apresentam significativamente menor complacência vesical e aqueles com sinergia apresentam significativamente maior complacência vesical. A dissinergia esteve significativamente associada aos pacientes com pressão de perda alta. Os pacientes com hidronefrose apresentam significativamente maior capacidade vesical e estão correlacionados significativamente com dissinergia e cicatriz renal. Não houve correlação significativa entre hidronefrose e pressão intravesical, complacência vesical, contrações vesicais não-inibidas e pressão de perda.Também não houve correlação significativa entre refluxo vesicoureteral e capacidade vesical, pressão intravesical, complacência vesical, contrações vesicais não-inibidas, tipo de esfíncter e pressão de perda, mas houve associação significativa com hidronefrose e cicatriz renal. Os pacientes com cicatriz renal apresentam significativamente maior capacidade vesical, mas não houve correlação significativa entre cicatriz renal e pressão intravesical, complacência vesical, contrações vesicais não-inibidas, tipo de esfíncter e pressão de perda. A média da pressão intravesical inicial era 60,5 cmH2O e diminuiu significativamente para 50,2 cmH2O após o tratamento. A complacência vesical média era 2,8 ml/cmH2O inicialmente e aumentou significativamente para 5,2 ml/cmH2O. A média das contrações vesicais não-inibidas inicial era 37 cmH2O e diminuiu significativamente para 11,4 cmH2O. A capacidade vesical média inicial era 133,9 ml e aumentou significativamente para 215,3 ml. Houve significativa melhora nos parâmetros urodinâmicos com o tratamento que, contudo, não conseguiu atingir valores considerados normais. Isto pode ser explicado pelas alterações viscoelásticas que já tenham ocorrido nestas bexigas e pela provável presença de outros neurotransmissores envolvidos na neurofisiologia patológica. Este trabalho deixa em aberto a possibilidade de que doses mais elevadas de cloreto de oxibutinina usadas por períodos mais prolongados possam ter efeitos benéficos adicionais aos aqui demonstrados.
Resumo:
Resumo não disponível.
Resumo:
Este trabalho teve como objetivo o desenvolvimento de uma nova técnica para determinação do tamanho médio e da distribuição de tamanho de bolhas de ar em meio aquoso. A nova técnica, denominada de LTM-BSizer, uma vez otimizada, foi aplicada na caracterização das bolhas geradas por diversos métodos utilizados tanto na flotação para tratamento de efluentes líquidos quanto na flotação de partículas minerais e, principalmente, na investigação de parâmetros operacionais e do efeito do tamanho de bolhas na flotação de partículas minerais (quartzo como modelo) finas (40-10 µm) e ultrafinas (<10 µm). A técnica LTM-BSizer é baseada no conceito da captura, ou seja, ao contrário das técnicas fotográficas até agora propostas, onde as imagens (fotos ou vídeos) das bolhas em movimento foram obtidas com visores verticais, este método obteve as imagens das bolhas estabilizadas em um visor disposto na horizontal. Entre as vantagens em relação aos métodos fotográficos existentes destacam-se a melhor qualidade das imagens e a capacidade de medir distribuições de tamanho de bolha com grande amplitude, desde microbolhas (<100 µm) até bolhas maiores (~ 1 a 3 mm). Os métodos de geração de bolhas pesquisados foram: microbolhas geradas por despressurização de água saturada com ar em um vaso saturador (processo de flotação por ar dissolvido-FAD) ou por uma bomba centrífuga multifase (novo equipamento para geração de microbolhas), injeção de mistura ar-líquido através de um constritor tipo venturi (destaque na flotação não convencional), injeção de ar em cilindro inox poroso (comumente aplicado para dispersão de gás) e bolhas geradas em uma célula de flotação por ar induzido (FAI), convencional de bancada Para todos os métodos citados, exceto o último, a distribuição de tamanho de bolha foi avaliada numa coluna em acrílico com 200 cm de altura e 72 mm de diâmetro, onde através de um ponto de amostragem parte do fluxo foi conduzida até o visor. Os resultados obtidos com esta técnica foram, para os diâmetros médios de bolha: 30 a 70 µm para FAD, 65 a 130 µm para bomba multifase, 200 a 1400 µm para venturi, 500 a 1300 µm para FAI e 500 a 1000 µm para o cilindro poroso. A influência de alguns parâmetros operacionais na formação das bolhas foi estudada em detalhe e os resultados obtidos mostraram uma boa correspondência com os valores encontrados na literatura e em outros casos, elucidaram efeitos considerados contraditórios na literatura técnica. Este trabalho demonstrou que, o tamanho médio e a distribuição de tamanho das microbolhas, não são influenciados pela pressão de saturação no intervalo de 294 a 588 kPa, mas sim pela quantidade de bolhas e pelo tempo de retenção Também foi constatado que a diminuição da tensão superficial da água (adição de 30 mg/L de oleato de sódio) aumenta consideravelmente (3 a 8 vezes) o número de microbolhas na FAD a baixas pressões de saturação (196 e 294 kPa). O tamanho e a distribuição de tamanho de bolhas geradas em constrições de fluxo tipo venturi variam em função dos parâmetros concentração de tensoativo, velocidade superficial de líquido (UL) e razão gás/líquido (Qr). Uma pequena diminuição da tensão superficial, de 73 para 68 mN/m, provocada pela adição de 20 mg/L do tensoativo DF 250, foi suficiente para diminuir consideravelmente o tamanho das bolhas geradas, permanecendo constante para concentrações maiores, sugerindo que esta seja a concentração crítica de coalescência (CCC) para este sistema. Um aumento de UL (mantendo Qr constante) e diminuição de Qr (com UL constante) levaram a distribuições com menor amplitude e diâmetro médio. No caso das microbolhas geradas através da bomba multifase, o tamanho de bolhas diminuiu com a pressão até atingir o limite de solubilidade teórico ar/líquido. O tamanho das bolhas gerados através de placa porosa e FAI apresentaram boa correspondência com os reportados na literatura e em ambas as técnicas foi, de novo, encontrada, para DF 250, a mesma CCC igual a 20 mg/L. O sistema de flotação de partículas finas e ultrafinas, foi estudado via recuperação de finos de quartzo (50% < 10µm) em coluna de laboratório. As variáveis estudadas foram; a distribuição de tamanho de bolhas e a concentração de coletor (amina). Os resultados obtidos mostraram que a recuperação das frações mais finas aumenta com a diminuição do tamanho de bolhas de acordo com os modelos existentes de flotação. Entretanto, foi encontrado, na captura de partículas ultrafinas pelas bolhas, um valor ótimo de tamanho de partícula. Assim, a captura diminui com o tamanho de partícula até 5-7 µm e aumenta, de novo, nas frações menores. Esses resultados são discutidos em termos de um mecanismo de difusão como fenômeno predominante nos mecanismos de adesão bolha-partícula.
Resumo:
As diferenças nos sistemas fiscais nacionais têm despertado a atenção dos estudiosos pelos significativos contrastes observados. Nas últimas décadas, muitos foram os estudos dedicados ao tema. Algumas questões abordadas nessa dissertação têm desafiado o tempo. Desde meados do século XVII, por exemplo, registram-se trabalhos relacionados ao nível de intervenção do estado na economia. Outras questões relativas às diferenças entre sistemas fiscais só se evidenciaram nas últimas décadas. Os debates sobre descentralização e governança, por exemplo, datam, quase todos, das três últimas décadas. Os trabalhos empíricos a respeito de diversas questões de grande relevância ainda são raros. A introdução, desenvolvida na parte I pretende dar uma visão geral do trabalho. Na parte 11, expõe-se, de forma sintética, a literatura mais pertinente às diferenças nos sistemas fiscais nacionais, particularmente a relacionada a (i) nível de intervenção governamental, Oi) nível de consumo do governo; (iii) diferenças no uso dos instrumentos fiscais (estrutura da receita tributária e dos gastos), (iv) propensão ao déficit e ao endividamento. Na parte 111, são selecionadas e definidas algumas das variáveis econômicas, sociais, políticas e institucionais que a literatura aponta como capaz~s de prover explicação a variáveis fiscais. Nesta parte, são fornecidas as informações metodológicas acerca de procedimentos adotados na parte seguinte. A parte IV mostra a análise dos resultados obtidos a partir de alguns modelos, inspirados em teorias conhecidas, em que se tenta dar explicação a três variáveis fiscais: carga tributária, razão consumo (conceito de Contas Nacionais) I PIS e razão consumo estrito (excluídos gastos em educação e defesa nacional) I PIS. Ainda na parte IV, são apresentadas, de forma sucinta, as conclusões mais importantes extraídas a partir da bibliografia selecionada e dos resultados obtidos através de modelos que procuram explicar algumas das diferenças observadas nos sistemas fiscais das nações.
Resumo:
Uma nova rede de polímeros interpenetrantes (IPN) baseada em poliuretana de óleo de mamona e poli(etileno glicol) e poli(metacrilato de metila) foi preparada para ser utilizada como eletrólito polimérico. Os seguintes parâmetros de polimerização foram avaliados: massa molecular do poli(etileno glicol) (PEG), concentração de PEG e concentração de metacrilato de metila. As membranas de IPN foram caracterizadas por calorimetria diferencial de varredura (DSC) e espectroscopia de infravermelho por transformada de Fourier (FT-IR). Os eletrólitos de redes de polímeros interpenetrantes (IPNE) foram preparados a partir da dopagem com sal de lítio através do inchamento numa solução de 10% em massa de LiClO4 na mistura de carbonato de etileno e carbonato de propileno na razão mássica de 50:50. As IPNEs foram caracterizadas por espectroscopia de impedância eletroquímica e Raman. As IPNEs foram testadas como eletrólito polimérico em supercapacitores. As células capacitivas foram preparadas utilizando eletrodos de polipirrol (PPy). Os valores de capacitância e eficiência foram calculados por impedância eletroquímica, voltametria cíclica e ciclos galvonostáticos de carga e descarga. Os valores de capacitância obtidos foram em torno de 90 F.g-1 e eficiência variou no intervalo de 88 a 99%. Os valores de densidade de potência foram superiores a 250 W.kg-1 enquanto que a densidade de energia variou de 10 a 33 W.h.kg-1, dependendo da composição da IPNE. As características eletroquímicas do eletrólito formado pela IPN-LiClO4 (IPNE) foram comparadas aos eletrólitos poliméricos convencionais, tais como poli(difluoreto de vinilideno)-(hexafluorpropileno) ((PVDF-HFP/LiClO4) e poliuretana comercial (Bayer desmopan 385) (PU385/LiClO4). As condutividades na temperatura ambiente foram da ordem de 10-3 S.cm-1. A capacitância da célula utilizando eletrodos de PPy com eletrólito de PVDFHFP foi de 115 F.g-1 (30 mF.cm-2) e 110 F.g-1 (25 mF.cm-2) para a célula com PU385 comparadas a 90 F.g-1 (20 mF.cm-2) para a IPNE. Os capacitores preparados com eletrólito de IPNE apresentaram valores de capacitância inferior aos demais, entretanto provaram ser mais estáveis e mais resistentes aos ciclos de carga/descarga. A interpenetração de duas redes poliméricas, PU e PMMA produziu um eletrólito com boa estabilidade mecânica e elétrica. Um protótipo de supercapacitor de estado sólido foi produzindo utilizando eletrodos impressos de carbono ativado (PCE) e o eletrólito polimérico de IPNE. A técnica de impressão de carbono possui várias vantagens em relação aos outros métodos de manufatura de eletrodos de carbono, pois a área do eletrodo, espessura e composição são variáveis que podem ser controladas experimentalmente. As células apresentaram uma larga janela eletroquímica (4V) e valores da capacitância da ordem de 113 mF.cm-2 (16 F.g-1). Métodos alternativos de preparação do PCE investigados incluem o uso de IPNE como polímero de ligação ao carbono ativado, estes eletrodos apresentaram valores de capacitância similares aos produzidos com PVDF. A influência do número de camadas de carbono usadas na produção do PCE também foi alvo de estudo. Em relação ao eletrólito polimérico, o plastificante e o sal de lítio foram adicionados durante a síntese, formando a IPNGel. As células apresentaram alta capacitância e boa estabilidade após 4000 ciclos de carga e descarga. As membranas de IPN foram testadas também como reservatório de medicamento em sistemas de transporte transdérmico por iontoforese. Os filmes, mecanicamente estáveis, formaram géis quando inchado em soluções saturadas de lidocaina.HCl, anestésico local, em propileno glicol (PG), poli(etileno glicol) (PEG400) e suas misturas. O grau de inchamento em PG foi de 15% e 35% em PEG400. Agentes químicos de penetração foram utilizados para diminuir a resistência da barreira causada pela pele, dentre eles o próprio PG, a 2-pirrolidinona (E1) e a 1-dodecil-2-pirrolidinona (E2). Os géis foram caracterizados por espectroscopia de impedância eletroquímica e transporte passivo e por iontoforese através de uma membrana artificial (celofane). O sistema IPN/ lidocaina.HCl apresentou uma correlação linear entre medicamento liberado e a corrente aplicada. Os melhores resultados de transporte de medicamento foram obtidos utilizando o PG como solvente.
Resumo:
Nos últimos anos tem ganhado importância o debate sobre sustentabilidade e consumo verde, e, portanto, conhecer este novo consumidor é uma possível fonte de vantagem competitiva a ser explorada por vários setores empresariais. Esta tese teve como objetivo principal, por meio de uma extensa revisão teórica e pesquisa de campo com consumidores acima de 18 anos da cidade de São Carlos, identificar as principais variáveis para o grau de Favorabilidade Ambiental do Consumidor (FAC). Outros dois objetivos foram identificar características sociodemográficas comuns presentes no Consumidor Favorável ao Ambiente (CFA) e as ferramentas de Marketing Ambiental que mais o influenciam. Em relação as variáveis explicativas, por meio da técnica estatística de regressão multivariada linear, além de duas variáveis dummies sociodemográficas, quatro psicográficas foram consideradas estatisticamente significantes: Comprometimento Ambiental, Conhecimento Geral Ambiental, Interesse Ambiental e Confiança da Informação vinda de ONGs. Nota-se um alto ceticismo da amostra entrevistada a respeito das comunicações pró-ambientais recebidas pelas empresas. A análise dos resultados identifica que informações sobre impacto ambiental contidas nos rótulos do produto é a única ferramenta relevante, apesar do número de certificações e rótulos ambientais ter sido a mais citada pelos CFAs. Em relação às variáveis sociodemográficas, escolaridade, classe econômica e o hábito de leitura de revistas e jornais são as mais comuns entre os CFAs. A partir das conclusões, espera-se que programas corporativos sejam mais bem sucedidos em suas implementações mediante a identificação correta dos CFAs na população e a utilização de ferramentas efetivas