723 resultados para Teses e Dissertações


Relevância:

60.00% 60.00%

Publicador:

Resumo:

O Brasil assumiu e mantém desde 2008 o primeiro lugar mundial em consumo de agrotóxicos e, tendo em vista este uso intensivo, é possível estimar a grande quantidade de embalagens vazias de agrotóxicos (EVAs) geradas todos os anos no país. Com a promulgação da Lei 9974 de 2000, a criação do Instituto Nacional de Processamento de Embalagens Vazias (inpEV) em 2001 e a implantação da Política Nacional de Resíduos Sólidos (PNRS) em 2010, a destinação adequada das EVAs por meio da logística reversa passou a ocorrer de maneira mais eficiente, chegando a um percentual de 94% de devolução em 2014 segundo dados do INPEV. No entanto, este processo foi originalmente concebido para atender grandes áreas rurais, com economias de escala que o favorecem, e portanto não está adequado à realidade de pequenas comunidades rurais, geralmente com infraestrutura precária e mais isoladas. Sendo assim, ainda é comum nos municípios de pequeno porte que essas embalagens sejam queimadas, armazenadas em locais não adequados ou simplesmente abandonadas no campo. Dessa forma, o objetivo deste estudo foi analisar a gestão de EVAs em pequenos municípios agrícolas brasileiros, com foco no processo de logística reversa, a partir de um estudo de caso. Este foi realizado em Bom Repouso, MG, município de 10500 habitantes, caracterizado pela produção de morango e batata, com mão de obra familiar e uso intensivo de agrotóxicos. As seguintes etapas de pesquisa foram desenvolvidas: entrevistas semiestruturadas com os atores da cadeia de logística reversa de EVAs; levantamento documental; análise comparativa entre a quantidade de embalagens vendidas e a quantidade total de embalagens devolvidas entre os anos de 2012-2013 e 2013-2014, bem como um levantamento dos agrotóxicos mais comercializados no município. Verificou-se que, no período 2012-2013, a quantidade de embalagens vendidas foi cerca de 30 vezes maior que a de embalagens devolvidas, e para o período entre 2013-2014 a mesma relação foi da ordem de 26 vezes. Além disso, a massa total de embalagens devolvidas corresponde a apenas 3,3% da massa de vendidas no período 2012-2013, e 3,8% para 2013-2014. Ou seja, aproximadamente 96% das embalagens comercializadas em ambos os períodos não foram devolvidas à central de Pouso Alegre. Além disso, há produtos extremamente tóxicos para a saúde e para o meio ambiente entre os 20 mais vendidos no município. Não estão estabelecidas políticas públicas municipais voltadas à gestão desses resíduos, como pode ser verificado através das entrevistas e do levantamento documental. Dificuldades relacionadas ao armazenamento das EVAs até o momento da devolução e seu transporte até a Central de Recolhimento foram apontadas pelos entrevistados como principais motivos para não cumprir suas responsabilidades e, consequente, descartar inadequadamente esses resíduos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Hidrolipodistrofia ginóide (H.L.D.G.), a celulite, é comumente tratada com cosméticos contendo extratos vegetais. O estudo realizado foi: ultra-sonografia na avaliação da espessura da hipoderme e a microcirculação cutânea; uso de termômetro infravermelho na medida da temperatura e análise das medidas antropométricas da uma formulação cosmética anticelulítica contendo extrato hidroglicólico de Trichilia catigua e Ptychopetalum olacoides Bentham (catuaba e marapuama). Foram realizadas medidas iniciais e após aplicação da formulação. Os resultados apresentaram alterações estatisticamente significativas para a temperatura cutânea e medidas antropométricas. Não houve diferenças estatisticamente significativas nas medidas da hipoderme e microcirculação. Considerando os resultados, a formulação avaliada possui potencial ação coadjuvante na redução da hidrolipodistrofia ginóide. As técnicas podem ser associadas em conjunto com a avaliação sensorial e apreciabilidade cosmética. Os requisitos chaves para a reprodutibilidade das técnicas incluem ambiente controlado, monitoramento e climatização dos voluntários, procedimentos de medidas padronizados, protocolos de aplicação realístico e operadores qualificados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo do presente trabalho é a investigação e o desenvolvimento de estratégias de otimização contínua e discreta para problemas de Fluxo de Potência Ótimo (FPO), onde existe a necessidade de se considerar as variáveis de controle associadas aos taps de transformadores em-fase e chaveamentos de bancos de capacitores e reatores shunt como variáveis discretas e existe a necessidade da limitação, e/ou até mesmo a minimização do número de ações de controle. Neste trabalho, o problema de FPO será abordado por meio de três estratégias. Na primeira proposta, o problema de FPO é modelado como um problema de Programação Não Linear com Variáveis Contínuas e Discretas (PNLCD) para a minimização de perdas ativas na transmissão; são propostas três abordagens utilizando funções de discretização para o tratamento das variáveis discretas. Na segunda proposta, considera-se que o problema de FPO, com os taps de transformadores discretos e bancos de capacitores e reatores shunts fixos, possui uma limitação no número de ações de controles; variáveis binárias associadas ao número de ações de controles são tratadas por uma função quadrática. Na terceira proposta, o problema de FPO é modelado como um problema de Otimização Multiobjetivo. O método da soma ponderada e o método ε-restrito são utilizados para modificar os problemas multiobjetivos propostos em problemas mono-objetivos. As variáveis binárias associadas às ações de controles são tratadas por duas funções, uma sigmoidal e uma polinomial. Para verificar a eficácia e a robustez dos modelos e algoritmos desenvolvidos serão realizados testes com os sistemas elétricos IEEE de 14, 30, 57, 118 e 300 barras. Todos os algoritmos e modelos foram implementados em General Algebraic Modeling System (GAMS) e os solvers CONOPT, IPOPT, KNITRO e DICOPT foram utilizados na resolução dos problemas. Os resultados obtidos confirmam que as estratégias de discretização são eficientes e as propostas de modelagem para variáveis binárias permitem encontrar soluções factíveis para os problemas envolvendo as ações de controles enquanto os solvers DICOPT e KNITRO utilizados para modelar variáveis binárias não encontram soluções.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Com o advento da agricultura ampliou-se a produção alimentar e os bens de consumo, no entanto, os riscos ambientais também foram maximizados em função da adoção de técnicas produtivas baseadas no uso intensivo de insumos agrícolas. Esta problemática é mundial, embora mais evidenciada nos países em desenvolvimento e que tem, na produção agrícola, a base de sua economia. O Brasil enquadra-se nesta situação e desde 2009 é considerado o maior consumidor de agrotóxicos do mundo, criando um cenário de risco ambiental e de saúde humana. Os efeitos ambientais, base deste estudo, estão relacionados não somente à perda de espécies não-alvo, uma vez que os agrotóxicos não são seletivos, mas também as alterações em nível ecossistêmico, a qual se relaciona com as perdas das funções e dos serviços gerados pelos sistemas naturais. Adiciona-se a esta complexidade, a forma de ação de cada agrotóxico, a distribuição dos mesmos nos diferentes compartimentos (ar, solo e água), o período de permanência de cada um, as relações sinérgicas decorrentes das interações entre diferentes produtos, a formação de subprodutos no processo de degradação, entre outros fatores, como as diferenças existentes entre o ingrediente ativo e a formulação comercial, na qual existem os chamados ingredientes inertes em sua composição, os quais podem ser muito mais tóxicos para espécies e ecossistemas. Considerando esta abordagem, a presente pesquisa foi desenvolvida com base na realidade de um local de referência, o município de Bom Repouso (MG/BR), no qual a intensificação da produção de morango e batata tem trazido uma série de riscos sociais e ambientais. Semelhante a outras regiões produtivas do país, o uso de agrotóxicos é recorrente, amplo e irrestrito, com destaque para as formulações comerciais Kraft®36EC e Score®250EC, as quais, juntamente com seus respectivos ingredientes ativos (abamectina e difenoconazol), foram avaliadas por meio de testes de toxicidade com espécies de diferentes níveis tróficos representativas de um ecossistema aquático, gerando informações que foram avaliadas em nível de espécie e de ecossistema, simulando o cenário de aplicação dos produtos no local de referência. Os resultados obtidos permitiram concluir sobre as diferenças de sensibilidade das espécies e quais seriam as mais indicadas para se avaliar os efeitos tóxicos de ambos os agrotóxicos; os efeitos diferenciados entre a formulação comercial e os ingredientes ativos; bem como as respostas em termos de espécies e de ecossistemas, demonstrando a necessidade de que ambas as análises sejam consideradas na avaliação de risco ecológico.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

De modo a satisfazer aspectos de resistência, custo ou conforto, o aperfeiçoamento do desempenho das estruturas é uma meta sempre almejada na Engenharia. Melhorias têm sido alcançadas dado ao crescente uso de materiais compósitos, pois estes apresentam propriedades físicas diferenciadas capazes de atender as necessidades de projeto. Associado ao emprego de compósitos, o estudo da plasticidade demonstra uma interessante alternativa para aumentar o desempenho estrutural ao conferir uma capacidade resistente adicional ao conjunto. Entretanto, alguns problemas podem ser encontrados na análise elastoplástica de compósitos, além das próprias dificuldades inerentes à incorporação de fibras na matriz, no caso de compósitos reforçados. A forma na qual um compósito reforçado por fibras e suas fases têm sua representação e simulação é de extrema importância para garantir que os resultados obtidos sejam compatíveis com a realidade. À medida que se desenvolvem modelos mais refinados, surgem problemas referentes ao custo computacional, além da necessidade de compatibilização dos graus de liberdade entre os nós das malhas de elementos finitos da matriz e do reforço, muitas vezes exigindo a coincidência das referidas malhas. O presente trabalho utiliza formulações que permitem a representação de compósitos reforçados com fibras sem que haja a necessidade de coincidência entre malhas. Além disso, este permite a simulação do meio e do reforço em regime elastoplástico com o objetivo de melhor estudar o real comportamento. O modelo constitutivo adotado para a plasticidade é o de von Mises 2D associativo com encruamento linear positivo e a solução deste modelo foi obtida através de um processo iterativo. A formulação de elementos finitos posicional é adotada com descrição Lagrangeana Total e apresenta as posições do corpo no espaço como parâmetros nodais. Com o intuito de averiguar a correta implementação das formulações consideradas, exemplos para validação e apresentação das funcionalidades do código computacional desenvolvido foram analisados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Materiais compósitos são projetados e fabricados para várias aplicações de alto desempenho, incluindo componentes para os segmentos automobilístico, aeroespacial, aeronáutico, naval, de defesa, de óleo e gás, energia eólica e até equipamentos esportivos. Porém, a união por soldagem de Compósitos de Matriz Metálica de Alumínio (Al-CMM) ainda é um grande obstáculo para a maior disseminação desta classe de materiais estruturais. As mudanças microestruturais decorrentes do ciclo de soldagem e/ou do tratamento térmico afetam sensivelmente as propriedades mecânicas e físico-químicas finais da junta e do metal base nas proximidades de mesma, daí a importância de se estudar a evolução microestrutural que prospera nestas etapas. O presente trabalho caracterizou a microestrutura do compósito liga-A356/SiCp soldado por laser de fibra de Itérbio, empregando-se nessa tarefa técnicas de microscopia óptica, radiografia e microscopia eletrônica de varredura, assim como difração de raios-X e de elétrons retroespalhados, ensaio instrumentado de dureza e microtomografia computadorizada. O foco das análises realizadas restringiu-se à geometria dos cordões de solda, à expulsão de SiC particulado da zona soldada, à volatilização de elementos químicos da poça de soldagem, à formação de precipitados fragilizantes de Al4SiC4 em formato de agulhas no cordão de solda e à determinação das regiões com concentração de poros, todos estes fenômenos tendo efeitos nocivos, em maior ou menor extensão, no desempenho global da junta do Al-CMM soldada a laser, notadamente em suas propriedades mecânicas e eletroquímicas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Desenvolve-se um método para estimar os parâmetros de uma rede hidráulica a partir de dados observados de cargas hidráulicas transientes. Os parâmetros físicos da rede como fatores de atrito, rugosidades absolutas, diâmetros e a identificação e quantificação de vazamentos são as grandezas desconhecidas. O problema transiente inverso é resolvido utilizando uma abordagem indireta que compara os dados disponíveis de carga hidráulica transiente observados com os calculados através de um método matemático. O Método Transiente Inverso (MTI) com um Algoritmo Genético (AG) emprega o Método das Características (MOC) na solução das equações do movimento para escoamento transiente em redes de tubos. As condições de regime permanente são desconhecidas. Para avaliar a confiabilidade do MTI-AG desenvolvido aqui, uma rede-exemplo é usada para os vários problemas de calibração propostos. O comportamento transiente é imposto por duas manobras distintas de uma válvula de controle localizada em um dos nós da rede. Analisam-se, ainda, o desempenho do método proposto mediante a variabilidade do tamanho do registro transiente e de possíveis erros de leitura nas cargas hidráulicas. Ensaios numéricos realizados mostram que o método é viável e aplicável à solução de problema inverso em redes hidráulicas, sobretudo recorrendo-se a poucos dados observados e ao desconhecimento das condições iniciais de estado permanente. Nos diversos problemas de identificação, as informações transientes obtidas da manobra mais brusca produziu estimações mais eficientes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho apresenta uma análise de algoritmos computacionais aplicados à estimação de fasores elétricos em SEPs. A medição dos fasores é realizada por meio da alocação de Unidades de Medição Fasorial nestes sistemas e encontra diversas aplicações nas áreas de operação, controle, proteção e planejamento. Para que os fasores possam ser aplicados, são definidos padrões de medição, sincronização e comunicação, por meio da norma IEEE C37.118.1. A norma apresenta os padrões de mensagens, timetag, fasores, sistema de sincronização, e define testes para avaliar a estimação. Apesar de abranger todos esses critérios, a diretriz não define um algoritmo de estimação padrão, abrindo espaço para uso de diversos métodos, desde que a precisão seja atendida. Nesse contexto, o presente trabalho analisa alguns algoritmos de estimação de fasores definidos na literatura, avaliando o comportamento deles em determinados casos. Foram considerados, dessa forma, os métodos: Transformada Discreta de Fourier, Método dos Mínimos Quadrados e Transformada Wavelet Discreta, nas versões recursivas e não-recursivas. Esses métodos foram submetidos a sinais sintéticos, a fim de verificar o comportamento diante dos testes propostos pela norma, avaliando o Total Vector Error, tempo de resposta e atraso e overshoot. Os algoritmos também foram embarcados em um hardware, denominado PC104, e avaliados de acordo com os sinais medidos pelo equipamento na saída analógica de um simulador em tempo real (Real Time Digital Simulator).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Um modelo dedicado ao planejamento da conservação e restauração de habitats deve incluir informações estratégicas para assegurar a eficácia e de fácil obtenção, para assegurar a agilidade necessária. Planos e estratégias para conservação usualmente são complexos e demandam informações detalhadas, difíceis de se obter, como inventários biológicos e certos tipos de mapeamento, o que traz limitações em termos de disponibilidade, qualidade e custo das informações. Assim, procurou-se testar a eficiência de métodos simples para a seleção, em escala local, de áreas prioritárias para conservação de habitats fortemente fragmentados e reduzidos, uma situação comum no sul do Brasil, usando dados de imagens LANDSAT e planos de informações disponíveis em mapeamentos comuns, e trabalho de campo. Inicialmente analisou-se a estrutura da paisagem e o padrão de fragmentação em parte da região norte do estado do Paraná, e testar se tamanho e forma são adequados para selecionar os fragmentos florestais mais importantes para a conservação, ou seja, as que contribuem para manter maior quantidade e melhor qualidade de habitats, bem como tenham maior impacto (positivo) na conectividade e em outras variáveis da paisagem. Os resultados mostram que a floresta madura cobre cerca de 3% da paisagem, e a cobertura florestal total atinge perto de 8%, consistindo principalmente de pequenos fragmentos (82% tem entre 1 e 10 ha). Fragmentos grandes (>100 ha) são apenas 1,4% dos remanescentes, mas somam 34% da área de floresta. Apesar de estarem sujeitos a efeitos de borda em toda ou quase toda a sua área, fragmentos pequenos mostraram ter um papel importante na conectividade da paisagem. Numa área maior, foi feita uma pré-seleção de áreas com potencial para estabelecimento de redes de conservação. A pré-seleção procurou responder às seguintes perguntas: 1-Quais são os sítios com maior potencial para a conservação da biodiversidade? 2-Quais são os sítios sob maior risco para objetivos de conservação? e 3-Quais sítios têm melhores oportunidades para o estabelecimento de zonas de conservação de uso múltiplo? Foi identificado um conjunto de 11 fragmentos pertencendo a 5 sub-regiões, sofrendo variados graus de pressão antrópica. Adicionalmente, usando medidas simples de estrutura da paisagem, relacionadas com tamanho, forma e conectividade dos fragmentos, procurou-se identificar tipos estruturais de fragmentos, como uma forma alternativa para auxiliar o estabelecimento de prioridades para conservação a partir do seu papel, efetivo ou potencial, na paisagem. Foram identificados 5 tipos de fragmentos, pequenos (ilhotas isoladas, trampolins), médios (núcleos auxiliares e corredores) e grandes (núcleos principais), que podem ser usados para subsidiar estratégias de conservação. Utilizando informações sobre a estrutura da paisagem, hidrografia e legislação ambiental, propõe-se aqui uma estratégia de conservação para o complexo das bacias dos ribeirões Apertados-Três Bocas (CATB), ordenando atividades de restauração e conservação de fragmentos florestais, criação e expansão de unidades de conservação, além da proposição de formas de uso do solo compatíveis com o entorno de unidades de conservação.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A realização deste estudo propiciou analisar a aplicação dos instrumentos previstos na legislação brasileira levantada para a gestão dos recursos hídricos, por meio dos Comitês de Bacias Hidrográficas e municípios. Foram eleitos a cidade de Araraquara e o Comitê de Bacia Hidrográfica Tietê-Jacaré, como forma de apurar a aplicação dos instrumentos de gestão existentes nas Políticas Federal e Estadual Paulista de Recursos Hídricos, consubstanciadas nas leis 9.433/97 e 7.663/91, respectivamente. Tal escolha se deu uma vez que o referido município encontra-se, aparentemente, organizado dentro dos ditames existentes no ordenamento ambiental legal brasileiro e faz parte da competência territorial daquele comitê. Constatou-se que o CBH-TJ não realiza suas atividades de forma adequada, pois, além de estar estruturado em desacordo com os ditames na lei federal de recursos hídricos, ainda carece de recursos financeiros, técnicos e de tomada de decisão (por ainda não possuir o Plano de Bacia e Agência de Água). O Poder Executivo do Município de Araraquara, mesmo tendo uma situação ambiental relativamente controlada, não utiliza o comitê da forma preconizada nas políticas de recursos hídricos, pois sua participação nele é pouco efetiva, o que acaba influenciando negativamente seu modo de gestão administrativa municipal, tornando-o apenas local, em alguns aspectos, deixando em segundo plano o restante da bacia hidrográfica.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Aplicativos móveis de celulares que coletam dados pessoais estão cada vez mais presentes na rotina do cidadão comum. Associado a estas aplicações, há polêmicas sobre riscos de segurança e de invasão de privacidade, que podem se tornar entraves para aceitação destes sistemas por parte dos usuários. Por outro lado, discute-se o Paradoxo da Privacidade, em que os consumidores revelam mais informações pessoais voluntariamente, apesar de declarar que reconhecem os riscos. Há pouco consenso, nas pesquisas acadêmicas, sobre os motivos deste paradoxo ou mesmo se este fenômeno realmente existe. O objetivo desta pesquisa é analisar como a coleta de informações sensíveis influencia a escolha de aplicativos móveis. A metodologia é o estudo de aplicativos disponíveis em lojas virtuais para celulares através de técnicas qualitativas e quantitativas. Os resultados indicam que os produtos mais populares da loja são aqueles que coletam mais dados pessoais. Porém, em uma análise minuciosa, observa-se que aqueles mais buscados também pertencem a empresas de boa reputação e possuem mais funcionalidades, que exigem maior acesso aos dados privativos do celular. Na survey realizada em seguida, nota-se que os consumidores reduzem o uso dos aplicativos quando consideram que o produto coleta dados excessivamente, mas a estratégia para proteger essas informações pode variar. No grupo dos usuários que usam aplicativos que coletam dados excessivamente, conclui-se que o motivo primordial para compartilhar informações pessoais são as funcionalidades. Além disso, esta pesquisa confirma que comparar os dados solicitados pelos aplicativos com a expectativa inicial do consumidor é um constructo complementar para avaliar preocupações com privacidade, ao invés de simplesmente analisar a quantidade de informações coletadas. O processo desta pesquisa também ilustrou que, dependendo do método utilizado para análise, é possível chegar a resultados opostos sobre a ocorrência ou não do paradoxo. Isso pode dar indícios sobre os motivos da falta de consenso sobre o assunto

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Apresenta-se neste trabalho um estudo teórico-experimental sobre a instabilidade de perfis formados a frio submetidos à flexão. A instabilidade distorcional se faz comum na presença de tensões de compressão atuando sobre perfis enrijecidos e fabricados com aços de elevada resistência mecânica. A parte teórica abrange os métodos de cálculo analíticos e numéricos para a análise de instabilidade distorcional de perfis de seção aberta formados a frio. Na parte experimental inclui-se o estudo de perfis formados a frio com seções do tipo U enrijecidos submetidos aos ensaios à flexão. Nestes ensaios variou-se a altura de alma e espessura de chapa procurando-se abranger maior número de condições geométricas para análise da estabilidade distorcional. Inclui-se também a análise de instabilidade numérica dos perfis do programa experimental através do método de resistência direta via método das faixas finitas. Com base nos resultados experimentais, numéricos e na análise teórica do problema, verificou-se o procedimento adotado pela NBR14762/2001 e efetuou-se comparação entre curvas de resistência propostas para o dimensionamento de perfis formados a frio à flexão. Foi verificado que o fenômeno de instabilidade distorcional pode ser o estado limite último crítico para o dimensionamento dos perfis formados a frio.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O Brasil possui uma posição privilegiada quando se refere à produção de etanol. Por questões históricas e geográficas o país é responsável por mais de 30 % da produção mundial de etanol, com uma produção nacional de mais de 28 bilhões de litros em 2014. Para maximizar o rendimento desse processo, está em desenvolvimento a tecnologia associada ao etanol de segunda geração ou etanol lignocelulósico. Os principais desafios desta tecnologia são: melhorar a eficiência de conversão do substrato em produto e a produção em grande escala utilizando substratos de baixo custo. Com o objetivo de melhorar a eficiência do processo de conversão foram estudadas proteínas auxiliares (expansinas) que, em conjunto com celulases, melhoram a despolimerização de biomassa lignocelulósica em açúcares fermentescíveis. Além disso, realizou-se também a caracterização de enzimas ativas de carboidratos (CAZymes) de origem termofílica do organismo Thermogemmatispora sp. T81, devido a capacidade que estas proteínas apresentam de manter a atividade e conformação estrutural em altas temperaturas por um prolongado período de tempo. A partir de análises utilizando bioinformática, os genes que codificam para expansinas de Xanthomonas campestris, Bacillus licheniformis e Trichoderma reesei foram clonados e expressos em E. coli, e seus produtos gênicos (as expansinas) tiveram seus índices de sinergismo (devido atuação conjunta com coquetéis comerciais) e atividade catalítica determinados. Adicionalmente, dispondo de alinhamentos estruturais, foi proposto um mecanismo hidrolítico para elas. Em relação à bactéria Thermogemmatispora sp. T81, foram realizadas análises genômicas e proteômicas, a fim de selecionar enzimas superexpressas em meio celulósico. Seus genes foram clonados heterologamente em E. coli e o produto de expressão caracterizado bioquimicamente (cromatografia, ensaios de atividade e perfil de hidrólise) e estruturalmente (SAXS e dicroísmo circular). Os índices de sinergismo determinados foram de 2,47; 1,96 e 2,44 para as expansinas de Xanthomonas campestris, Bacillus licheniformis e Trichoderma reesei, respectivamente. A partir dos alinhamentos estruturais foi proposto a díade Asp/Glu como sitio catalítico em expansinas. As análises de proteômica possibilitaram a seleção de quatro alvos de clonagem, por apresentarem alto índice de expressão quando a bactéria foi cultivada em meio celulósico. Estas proteínas foram caracterizadas quanto a atividade e apresentaram um perfil comum: temperatura ótima de ação (de 70 a 75 °C), pH ótimo de 5, e hidrolisam preferencialmente substratos hemicelulósicos (xilano). A porcentagem de estruturais secundárias das proteínas em estudo foram confirmadas com predições teóricas ao se utilizar a técnica de dicroísmo circular. Desta maneira, os objetivos iniciais propostos neste projeto foram concluídos com a determinação do grau de sinergismo das proteínas expansinas em estudo e a proposição de um mecanismo de hidrólise para as mesmas, considerando que tais proteínas por mais de 20 anos tiveram sua atividade definida exclusivamente como acessória. Além disso, este estudo contribui com a identificação e seleção de genes para CAZymes termofilícas com aplicação biotecnológica devido às propriedades termoestáveis apresentadas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nas últimas décadas, a maturidade de alguns mercados, a globalização e o crescente poder de barganha dos clientes aumentam ainda mais a necessidade das empresas em manterem e desenvolverem de forma eficaz seus clientes mais importantes. Neste contexto, ganham relevância os programas de Key Account Management (KAM), iniciativas corporativas que tratam de forma especial os clientes mais importantes do fornecedor. Para obter o desempenho financeiro superior, o programa de KAM precisa criar valor para o cliente para posterior apropriação de valor pelo fornecedor. Contudo, a maioria dos estudos enfatiza a apropriação de valor pelo fornecedor, porém poucas pesquisas investigam a criação de valor para o cliente em programas de KAM. Além disso, a maioria das pesquisas em marketing de relacionamento ainda foca muito nos impactos positivos do relacionamento. Dessa forma, é importante analisar empiricamente como é a implementação da criação de valor para o cliente em programas de KAM, identificando as principais dimensões e os fatores críticos. O objetivo do presente estudo é analisar o processo de criação de valor para o cliente em programas de Key Account Management (KAM) e propor um modelo de criação de valor para o cliente segundo a perspectiva da empresa fornecedora. As análises e o modelo são elaborados a partir de um processo de investigação abdutiva, ou seja, a combinação entre a fundamentação teórica sobre o conceito de valor e programas de KAM e a análise de conteúdo de 22 entrevistas em profundidade com especialistas em programas de KAM, profissionais de marketing/vendas que trabalham por pelo menos cinco anos com programas de KAM em grandes empresas no Brasil. O modelo proposto explica de forma integrada e sistemática como é a criação de valor para o cliente em programas de KAM segundo cinco dimensões (Desenvolvimento de relacionamentos; Entendimento dos direcionadores de valor; Desenvolvimento da proposta de valor; Comunicação da proposta de valor; e mensuração de valor), quatro moderadores (Orientação relacional do cliente; Formalização do programa de KAM para o cliente; Abordagem do fornecedor: \"orientada ao cliente\" vs. \"orientar o cliente\"; e Fit estratégico entre o fornecedor e o cliente) e três riscos (Não entrega do valor básico para o cliente; Rotatividade do Key Account Manager; e Sentimento de injustiça do cliente). Contribui-se com a teoria sobre o tema, ao incluir uma dimensão específica no modelo para desenvolvimento de relacionamentos do nível da díade (organização-organização) e indivíduo (funcionário-funcionário), e ao abordar não somente aspectos positivos do relacionamento, mas também os aspectos negativos (ou riscos da criação de valor para o cliente). Contribui-se também para a prática, ao prover uma visão mais ampla, sistemática e integradora dos diversos elementos da criação de valor para o cliente aos executivos das empresas que possuem programas de KAM, e ao recomendar práticas organizacionais que servem como guias para a tomada de decisão dos gestores de programas de KAM. Ademais, como a parte empírica do estudo é baseada no contexto brasileiro, amplia-se o conhecimento sobre KAM no Brasil. Por fim, apresentam-se as limitações do estudo com a agenda de pesquisas futuras

Relevância:

60.00% 60.00%

Publicador:

Resumo:

According to the last global burden of disease published by the World Health Organization, tumors were the third leading cause of death worldwide in 2004. Among the different types of tumors, colorectal cancer ranks as the fourth most lethal. To date, tumor diagnosis is based mainly on the identification of morphological changes in tissues. Considering that these changes appears after many biochemical reactions, the development of vibrational techniques may contribute to the early detection of tumors, since they are able to detect such reactions. The present study aimed to develop a methodology based on infrared microspectroscopy to characterize colon samples, providing complementary information to the pathologist and facilitating the early diagnosis of tumors. The study groups were composed by human colon samples obtained from paraffin-embedded biopsies. The groups are divided in normal (n=20), inflammation (n=17) and tumor (n=18). Two adjacent slices were acquired from each block. The first one was subjected to chemical dewaxing and H&E staining. The infrared imaging was performed on the second slice, which was not dewaxed or stained. A computational preprocessing methodology was employed to identify the paraffin in the images and to perform spectral baseline correction. Such methodology was adapted to include two types of spectral quality control. Afterwards the preprocessing step, spectra belonging to the same image were analyzed and grouped according to their biochemical similarities. One pathologist associated each obtained group with some histological structure based on the H&E stained slice. Such analysis highlighted the biochemical differences between the three studied groups. Results showed that severe inflammation presents biochemical features similar to the tumors ones, indicating that tumors can develop from inflammatory process. A spectral database was constructed containing the biochemical information identified in the previous step. Spectra obtained from new samples were confronted with the database information, leading to their classification into one of the three groups: normal, inflammation or tumor. Internal and external validation were performed based on the classification sensitivity, specificity and accuracy. Comparison between the classification results and H&E stained sections revealed some discrepancies. Some regions histologically normal were identified as inflammation by the classification algorithm. Similarly, some regions presenting inflammatory lesions in the stained section were classified into the tumor group. Such differences were considered as misclassification, but they may actually evidence that biochemical changes are in course in the analyzed sample. In the latter case, the method developed throughout this thesis would have proved able to identify early stages of inflammatory and tumor lesions. It is necessary to perform additional experiments to elucidate this discrepancy between the classification results and the morphological features. One solution would be the use of immunohistochemistry techniques with specific markers for tumor and inflammation. Another option includes the recovering of the medical records of patients who participated in this study in order to check, in later times to the biopsy collection, whether they actually developed the lesions supposedly detected in this research.