1000 resultados para Método projetivo


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ensinar ciência e, acima de tudo, ensinar o método científico e desenvolver a atitude crítica do estudante. Isto significa substituir a visão da ciência como uma coleção de fatos e teorias definitivamente estabelecidos, pela visão da ciência como um conhecimento racional - Porque crítico -, conjectural, provisório, sempre capaz de ser questionado e corrigido. Significa também opor à visão da ciência como uma representação completa e perfeita de fenômenos diretamente observáveis, a visão da ciência como uma reconstrução idealizada e parcial da realidade, que explica o visível pelo invisível. Nessa linha de raciocínio, devemos opor à idéia de uma observação pura e imparcial dos fatos, a ideia da observação guiada por hipóteses e teorias. Ensinar o meto do cientifico é questionar a ideia de que descobrimos e verificamos hipóteses através de procedimentos indutivos, substituindo-a pela ideia de que inventamos conjecturas ousadas, surgidas de nossa imaginação. Essas conjecturas, contudo, deverão ser testadas o mais severamente possível, através de tentativas de refutação que façam uso de experimentos controlados. No lugar da ilusória busca de teorias verificáveis, verdadeiras -ou pelo menos cada vez mais prováveis devemos buscar teorias de maior refutabilidade, cada vez mais amplas, precisas, profundas, de maior grau de corroboração e, talvez, mais próximas da verdade. Finalmente, ensinar o método científico significa também criticar cada uma das visões alternativas de ciência, propondo novos critérios para avaliar hipóteses e teorias científicas. É desnecessário dizer que estes critérios, por sua vez, devem também ser criticados, visto que a ausência de discussão crítica e a aceitação passiva e dogmática de um conjunto de ideias ou teorias e a não ciência, a pseudociência, enfim, a negação do espírito crítico e da racionalidade do homem.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Existem mais de 50 mil ONGs internacionalizadas no planeta. Tais entidades são muito importantes para a conscientização da sociedade, para o monitoramento de empresas e órgãos governamentais, para a ajuda na criação de organizações intergovernamentais internacionais, entre outras funções. Entretanto, apesar da internacionalização de empresas e da gestão do terceiro setor serem ambas estudadas há várias décadas, existem poucos trabalhos acadêmicos (especialmente com a lente da área de management) que exploram o cruzamento destes dois temas: a internacionalização de organizações não governamentais sem fins lucrativos. Sendo assim, o principal propósito desta pesquisa é o estudo da seguinte questão de pesquisa: por que as ONGs se internacionalizam e como são definidas as estratégias de internacionalização das mesmas? Após a revisão bibliográfica e entrevistas exploratórias iniciais, realizei pesquisas de campo através de estudos de caso (quatro casos foram estudados) e de uma survey (367 respondentes). Como principais “achados”, pode-se citar a percepção de que há mais benefícios do que custos ao se internacionalizar uma ONG, indícios mostraram que o processo de decisão é racional e que motivações “econômicas” estão entre as mais importantes na decisão de ir ao estrangeiro, de escolher um parceiro neste processo e de escolher quais serão os países de destino. Os estudos de caso revelaram também a forte influência do empreendedor social na internacionalização das entidades. Identificou-se um forte caráter “emergente” no processo de ida ao estrangeiro, em contraponto a uma estratégia de internacionalização mais planejada. Entretanto, identificou-se que quanto maior a maturidade internacional da ONG, mais planejado tende a ser o processo de expansão geográfica internacional. Quanto às parcerias e à rede das ONGs, constatou-se que os relacionamentos influenciam na internacionalização. As percepções levantadas na survey não só confirmaram as impressões dos casos, como apontaram alguns indícios interessantes. As principais motivações para a internacionalização de uma ONG citadas pelos profissionais foram: captar recursos no exterior, trazer boas práticas e atender necessidades no estrangeiro. Desconhecimento de formatos legais de atuação no estrangeiro foi a barreira apontada como mais relevante. Foram elencados também os principais critérios na escolha dos destinos da internacionalização e os principais motivadores para o uso de redes no processo. Sugeri diversos temas futuros de pesquisa que acredito que possam avançar alguns “tijolos” na construção do conhecimento ligado ao tema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho de conclusão apresenta um método e uma ferramenta para avaliação da maturidade e da capacitação de ambientes de desenvolvimento de software baseado no uso da abordagem Goal/Question/Metric-GQM combinada aos métodos tradicionais de avaliação já existentes para o modelo Capability Maturity Model-CMM. A aplicação deste método através da ferramenta proposta permitirá a organização avaliada estabelecer o grau de conformidade preliminar dos seus processos em relação às exigências do modelo CMM. Esta avaliação poderá ser utilizada como ponto de partida para o estabelecimento de um processo de melhoria. O modelo CMM descreve uma série de estágios de maturidade que são atingidos através da satisfação de metas estabelecidas para áreas-chave do processo de desenvolvimento de software da organização. A evolução deste modelo, chamada de CMMI, Capability Maturity Model Integrated, possibilita que as organizações optem pela forma de implementação do modelo. Esta opção pode se dar através do uso do CMMI em estágios, vertical utilizando os níveis tradicionais do modelo, ou contínua; horizontal baseada nas áreas-chave de processo. Da mesma forma, a avaliação pode ser realizada sobre qualquer modelo escolhido. O modelo GQM descreve uma estrutura hierárquica baseada na existência de metas de melhoria preestabelecidas das quais são extraídas métricas e questões que as satisfazem. O nível de satisfação dessas metas é obtido através da análise das métricas relativas às questões aplicadas ao foco da avaliação Algumas ferramentas para avaliação dos processos relativos ao modelo CMM são apresentadas, tais como o questionário da maturidade e os modelos existentes para a criação de métodos de avaliação, CMM Apraisal Framework-CAF e Apraisal Requirements for CMMI-ARC. O diferencial apresentado é o estabelecimento de métricas objetivas e regras de interpretação dessas para a definição da satisfação de uma determinada área-chave de processo, ACP, do nível 2 do modelo CMMI. Além dessas contribuições vale destacar o estabelecimento de questões adicionais ao questionário da maturidade com o objetivo de capturar essas métricas e a criação de grafos GQM para cada ACP do nível 2 do CMMI. Esses grafos permitem a visualização do relacionamento existente entre cada ACP do nível 2 do CMMI com suas metas, questões e métricas. A aplicação do método e da ferramenta será demonstrada através da utilização de um estudo de caso aplicado na empresa DWA Informática Ltda.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresenta-se uma solu c~ao para um problema abstrato de Cauchy. Basicamente, d a-se uma formula c~ao abstrata para certos tipos de equa c~oes diferenciais parciais n~ao lineares de evolu c~ao em espa cos de Nikol'skii, tais espa cos possuem boas propriedades de regularidade e resultados de imers~ao compacta, num certo sentido s~ao intermedi arios entre os espa cos de Holder e os espa cos de Sobolev. Aplicando o m etodo de Galerkin, prova-se resultados de exist^encia global de solu c~oes fracas, como tamb em a exist^encia de solu c~oes fracas com a propriedade de reprodu c~ao. E impondo mais hip oteses sobre os operadores envolvidos demonstra-se unicidade de solu c~oes fracas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentada a solução da equação de difusão-advecção transiente para simular a dispersão de poluentes na Camada Limite Planetária. A solução é obtida através do método analítico GILTT (Generalized Integral Laplace Transform Technique) e da técnica de inversão numérica da quadratura de Gauss. A validação da solução é comprovada utilizando as concentraçãos obtidas a partir do modelo com as obtidas experimentalmente pelo Experimento de Copenhagen. Nesta comparação foram utilizados os perfis de vento potencial e logaritmo e os parâmetros de turbulência propostos por Degrazia et al (1997) [19] e (2002) [17]. Os melhores resultados foram obtidos utilizando o perfil de vento potencial e o coeficiente de difusão propostos por Degrazia et al (1997). A influência da velocidade vertical é mostrada através do comportamento das concentrações de poluentes na pluma. Além disso, as velocidades verticais e longitudinais geradas pelo Large Eddy Simulation (LES) foram colocadas no modelo para poder simular uma camada limite turbulenta mais realística, a qual apresentou resultados satisfatórios quando comparados com os disponíveis na literatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A concepção dos sistemas eletrônicos previstos para o futuro próximo implica em uma atividade multidisciplinar, a qual demanda, para o projeto de sistemas eletrônicos, o uso de métodos e técnicas provenientes de diversos domínios do conhecimento humano. Esses domínios podem variar desde a especificação de aplicações, até a realização física de circuitos integrados. A constante evolução dos processos de fabricação de circuitos integrados permite a criação de circuitos bastante complexos, seja em relação ao número de componentes eletrônicos e de suas inter-relações, seja em relação à heterogeneidade funcional presente nas aplicações alvo, previstas para estes sistemas. Para os próximos anos está prevista a possibilidade da inclusão de mais de um bilhão de transistores em uma única pastilha de silício, inaugurando a era da “gigaescala”. Devido a essa situação, a comunidade científica vem demonstrando preocupação em relação às novas técnicas que se fazem necessárias para a concepção dos “gigacircuitos”. Essas técnicas envolvem o uso de diferentes níveis de abstração na concepção e análise das funcionalidades da aplicação alvo, além de abordagens para explorar o grande espaço de busca, inerente à disponibilidade de um grande número de componentes para a implementação da arquitetura alvo, a qual deve ser otimizada para as restrições de projeto. As idéias apresentadas nesse trabalho vão de encontro à necessidade por novas técnicas para a concepção de circuitos eletrônicos complexos. Este trabalho procura contribuir para que esta classe de circuitos possa tornar-se realidade em um futuro próximo, avalizando a disponibilidade de informação, de entretenimento e de serviços para a sociedade. Para tanto, um novo método é proposto, onde um fluxo de projeto considera as ferramentas necessárias para a exploração do espaço de busca em componentes de processamento e de comunicação, visando à sua otimização. As ferramentas seguem os princípios do projeto baseado em plataformas, onde componentes podem ser reutilizadas para aplicações da mesma classe, em diferentes níveis de abstração. Além disso, os princípios da especificação baseada em interface são considerados, visando explicitar a especificação de funcionalidades heterogêneas para componentes arquiteturais, bem como permitir a avaliação dinâmica do comportamento destes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação de mestrado teve como objetivo principal propor um método estruturado suportado for ferramentas gerenciais que permitisse orientar e sistematizar o desenvolvimento de um projeto de pesquisa na disponibilização de uma nova tecnologia para o mercado. O “Projeto Etanol de 2ª Geração”, etanol produzido a partir de biomassas lignocelulósicas, aqui selecionado para estudo de caso, foi extraído da carteira de projetos do Centro de Tecnologia Canavieira (CTC). O método estruturado sugerido é constituído, fundamentalmente, por oito requisitos arranjados de forma cronológica ao longo do desenvolvimento do projeto, que visam auxiliar na prospecção, entendimento, avaliação, valoração, priorização, planejamento e implantação de, por exemplo, uma tecnologia inovadora, otimizando tempo, capital e recursos humanos aplicados. Um dos principais pontos do método proposto refere-se à escolha adequada das ferramentas gerenciais a serem utilizadas em cada requisito (brainstorm, análise de patentes, painel de especialistas, análise SWOT, dentre outras). O êxito na aplicação do método requer o entendimento de todos os (potenciais) efeitos, inclusive os colaterais, no processo como um todo. Ou seja, uma vez que toda ferramenta gerencial apresenta pontos fortes e fracos, o importante é adaptá-las ao sistema de negócio e não vice-versa. A partir do gerenciamento do projeto por um gestor com domínio das ferramentas gerenciais, a escolha destas ocorre de forma dinâmica, onde a cada passo de avaliação novas ferramentas (simples e/ou complexas) podem ser incluídas ou excluídas da matriz do método. Neste trabalho ficou demonstrada a importância de se trabalhar com métodos estruturados e flexíveis, que permitem retroalimentação de informações geradas internamente durante o desenvolvimento da pesquisa ou advindas de fontes externas. O projeto Etanol de 2ª Geração do CTC vem aplicando o método proposto em seu desenvolvimento e obtendo grande êxito em seus resultados, uma vez que a equipe envolvida permanece focada no objetivo principal, obedecendo prazos e recursos inicialmente definidos, com constância do propósito do projeto, sem retrocesso ou recomeço.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação tem por objetivo desenvolver uma reflexão sobre a relação entre método e escrita da história a partir da análise dos escritos de João Capistrano de Abreu. A hipótese que orienta a leitura de sua obra é a de que os dispositivos da crítica documental, praticada pelos historiadores do século XIX, ao mesmo tempo em que conferem as marcas de credibilidade ao texto histórico, também impõem coerções e limites incontornáveis à sua construção. O estudo do caso Capistrano oferece a possibilidade de investigar alguns desdobramentos epistemológicos desta questão, sobretudo em um momento em que a história nacional investiu-se de pretensões científicas, com diretrizes teóricas e temáticas próprias. A história em capítulos do historiador corresponderia à instauração de um novo regime de escrita cujos dispositivos de validação não se encontrariam exclusivamente na explicitação do aparato crítico utilizado, mas na coerência explicativa própria do texto que ele elaborou.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho de tese tem por objetivo ampliar o alcance e aplicação de mapas SODA, preservando a metodologia originalmente desenvolvida. Inicialmente é realizada uma revisão do método, abordando de forma conjunta os artigos seminais, a teoria psicológica de Kelly e a teoria dos grafos; e ao final propomos uma identidade entre construtos de mapas SODA com os conhecimentos tácitos e explícitos, da gestão do conhecimento (KM). Essa sequencia introdutória é completada com uma visão de como os mapas SODA tem sido aplicado. No estágio seguinte o trabalho passa a analisar de forma crítica alguns pontos do método que dão margens a interpretações equivocadas. Sobre elas passamos a propor a aplicação de teorias, de diversos campos, tais como a teoria de means-end (Marketing), a teoria da atribuição e os conceitos de atitude (Psicologia), permitindo inferências que conduzem à proposição da primeira tese: mapas SODA são descritores de atitudes. O próximo estágio prossegue analisando criticamente o método, e foca no paradigma estabelecido por Eden, que não permite conferir ao método o status de descritor de comportamento. Propomos aqui uma mudança de paradigma, adotando a teoria da ação comunicativa, de Habermas, e sobre ela prescrevemos a teoria da ação e da escada da inferência (Action Science) e uma teoria da emoção (neuro ciência), o que permite novas inferências, que conduzem à proposição da segunda tese: mapas SODA podem descrever comportamentos. Essas teses servem de base para o alargamento de escopos do método SODA. É proposta aqui a utilização da teoria de máquinas de estado finito determinístico, designadas por autômato. Demonstramos um mapeamento entre autômato com mapas SODA, obtendo assim o autômato SODA, e sobre ele realizamos a última contribuição, uma proposta de mapas SODA hierárquicos, o que vem a possibilitar a descrição de sequencias de raciocínio, ordenando de forma determinística atitudes e comportamentos, de forma estruturada. A visão de como ela pode ser aplicada é realizada por meio de estudo de caso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das grandes preocupações da academia na área de Estratégia Empresarial é a evolução das teorias das inovações disruptivas versus inovações incrementais. Dentro destas discussões encaixam-se as teorias que estruturam a linha das inovações tecnológicas versus as inovações que alteram os modelos de negócios. Mais complexo é o estudo das inovações que alteram tanto as tecnologias quanto os modelos de negócios não só de algumas empresas, mas de toda uma cadeia produtiva. Esta dissertação propõe um método de antecipação das consequências que sofrerão todos os agentes de uma cadeia produtiva sob efeito de inovações disruptivas. Para lidar com a complexidade desta antevisão usamos o instrumental de sistemas dinâmicos e o pensamento sistêmico. Como estudo de caso, estamos analisamos a implantação do cinema digital no Brasil, a qual afeta toda a cadeia do áudio visual no país. No nosso referencial teórico sobre inovação utilizamos um encadeamento, não totalmente linear cronologicamente, de teorias composto pelos os conceitos de diversificação, descontinuidades tecnológicas, descontinuidades estratégicas, inovações disruptivas, modelos duais, reações organizacionais, organizações ambidestras, verticalização versus integração das cadeias produtivas e harmonização de modelos mentais. A presente dissertação discorre sobre estes fundamentos teóricos e usa o caso da implantação do Cinema Digital no Brasil como verificação empírica. A exibição digital está apresentando indícios de ser uma inovação disruptiva que altera tanto padrões tecnológicos como os modelos de negócios dos exibidores sendo, portanto, um campo adequado de verificação e extensão da teoria. Através do exame das estratégias possíveis das redes de exibidores de cinema no atual momento da digitalização no Brasil mostramos como elas podem vencer mais facilmente os desafios decorrentes do processo, aperfeiçoar os resultados econômicos e financeiros, minimizando o tempo de sua concretização e se tornarem ambidestras isto é, se prepararem para enfrentar um processo no qual muitas outras inovações ainda vão ocorrer estando, no momento, nas suas fases de gestação. A estrutura da dissertação foi construída com um maior detalhamento no início de sua parte metodológica pela utilização do instrumental sistêmico para facilitar o entendimento do projeto. Muita da literatura sobre inovações, descontinuidades e disrupções já se utilizava de uma forma de pensar sistêmica sem colocá-la sob este formato. Quando isto ocorreu de forma significativa em uma teoria importante para os nossos propósitos fizemos sua “tradução” para a simbologia sistêmica. Dentro deste objetivo, fazemos, já no capítulo 3, uma breve explanação sobre a forma de pensar em Sistemas Dinâmicos, a identificação de “loops” causais, de “delays” (atrasos) e das principais mudanças plausíveis ao longo do tempo. A seguir, no capítulo 4 fazemos uma revisão da teoria das inovações disruptivas, e no capítulo 5 mostramos como a implantação do cinema digital se encaixa nesta teoria e de como a cadeia inteira do audiovisual está sendo afetada de forma sistêmica, cuja complexidade pode ser manejada pela construção do mapa causal que relaciona as estratégias de todos os seus agentes ao longo do tempo. Este mapa causal é usado para antecipar comportamentos estratégicos dos componentes da cadeia audiovisual sob ambiente disruptivo. No capítulo 6, como contribuição teórica, propomos que esta forma de organizar a complexidade seja um processo perene a ser utilizado no mapeamento e previsão de outras mudanças em ambientes de inovações disruptivas aceleradas além de elencar recomendações estratégicas para a transformação das cadeias de exibição brasileiras em organizações ambidestras com capacidade de competir eficientemente com as cadeias internacionais que chegaram e ainda estão chegando ao país e que já são responsáveis hoje por aproximadamente 45% da receita de bilheteria de cinema no país. No capítulo 7 mostramos sugestões de aplicação do método a outras cadeias produtivas que estão no meio de processos disruptivos, as vantagens de sua adoção, limitações e aperfeiçoamentos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A previsão da capacidade de carga de estacas constitui-se um dos desafios da engenharia de fundações por requerer, na teoria, a estimativa de propriedades do solo, suas alterações pela execução da fundação e o conhecimento do mecanismo de interação solo-estaca. Devido à dificuldade de reproduzir analítica e numericamente o mecanismo de interação solo-estaca, a prática brasileira faz uso correlações empíricas, relacionando diretamente os resultados do ensaio SPT com o desempenho do elemento de fundação. Apesar da grande contribuição dos métodos tradicionalmente utilizados, a sua validade está limitada à prática construtiva regional e às condições específicas dos casos históricos utilizados em seu estabelecimento. Com o objetivo de incorporar à engenharia de fundações brasileira um novo método de previsão de capacidade de carga de estacas, obtido diretamente a partir de ensaios SPT, desenvolveu-se nesta pesquisa uma metodologia baseada na interpretação do ensaio SPT sugerida por Odebrecht (2003). À luz desta nova interpretação, utiliza-se a força dinâmica de reação do solo à cravação do amostrador SPT para estimar a capacidade de carga de estacas, relacionando os mecanismos de mobilização de resistência do amostrador (modelo) com os da estaca (protótipo). No intuito de validar a metodologia proposta, organizou-se neste trabalho, um expressivo banco de dados compostos por 325 provas de carga à compressão e 43 provas de carga à tração, executadas em diferentes regiões do país. Das provas de carga à compressão, 132 casos são de estacas cravadas pré-moldadas de concreto, 28 de estacas metálicas, 95 de estacas hélice contínua e 70 casos de estacas escavadas. Já nas provas de carga à tração, 3 casos são de estacas cravadas pré-moldadas, 31 de estacas hélice contínua e 9 casos de estacas escavadas. Conclui-se a partir de análises comparativas entre cargas previstas e medidas que o método proposto é capaz de prever de forma satisfatória a capacidade de carga de estacas. Uma análise estatística dos dados possibilitou atribuir à estimativa de capacidade de carga, um intervalo de confiança das previsões, baseado na confiabilidade requerida para o projeto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O projeto do trem de alta velocidade que fará o transporte de passageiros entre as duas maiores metrópoles do país é um dos principais investimentos do Plano de Aceleração do Crescimento (PAC). Depois do insucesso apresentado no primeiro processo de licitação, devido à falta de proposta de investidores privados, o Governo Federal decidiu alterar a sua participação no plano de investimentos, adicionalmente, nesta segunda tentativa, prevista para ocorrer em setembro de 2013, o Governo informou que reduzirá o valor mínimo da outorga a ser pago pelo concessionário vencedor em 3,2%, o que aumentará o investimento do Estado em cerca de R$ 900 milhões. O setor público busca através das medidas destacadas, aumentar a atratividade do projeto e divulgou que poderá aumentar a sua participação acionária no projeto, de 45% das cotas da SPE que controlará o TAV para cerca de 80%. O presente estudo discute a concessão de uma garantia de demanda mínima de passageiros, os resultados obtidos através da metodologia de opções reais indicam que elas podem gerar um aumento do VPL de 22,2% e um custo para os cofres públicos de apenas 2,86% do total investido no projeto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, apresenta-se um estudo numérico de um modelo convectivo-difusivo-reativo em combustão baseado no Método de Elementos Finitos. Primeiramente, apresenta-se o desenvolvimento das equações de balanço (quantidade de movimento, massa, espécie e energia) que modelam um processo de mistura molecular e reação química, irreversível, de passo único e exotérmica entre duas espécies químicas F (Combustível) e O (Oxidante). Tais espécies reagem e formam um produto P, conforme vFF +vOO ! vPP + calor, onde vF , vO e vP são os coeficientes estequiométricos molares. No modelo, considera-se que a reação é de primeira ordem com respeito a cada um dos reagentes e que a taxa de reação específica segue a cinética de Arrhenius. Em seguida, o modelo é estudado numericamente considerando-se um domínio retangular e condições de contorno do tipo Neumann. Tanto a Técnica das Diferenças Finitas como a Técnica de Elementos Finitos são utilizadas na discretização espacial das equações do modelo. Para a integração no tempo, utiliza-se a método de Runge-Kutta simplificado de três estágios. Os diferentes códigos computacionais obtidos, tanto pela Técnica de Diferenças Finitas como de Elementos Finitos, são comparados frente ao problema de interesse. Observa-se que ambas as técnicas apresentam resultados equivalentes. Além disso, os códigos desenvolvidos são robustos (capazes de lidar com vários conjuntos de parâmetros), de baixo custo e precisos. Por fim, apresenta-se uma revisão do trabalho de Zavaleta [48], no qual obtem-se uma estimativa local do erro na aproximação do problema estudado pela Técnica de Elementos Finitos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos dez anos, milhares de trabalhos foram publicados somente no desenvolvimento da técnica de eletroforese capilar (CE) e suas aplicações em ciências biológicas, química e em outras áreas. Apesar disto, muitos tópicos de pesquisa básica da CE ainda continuam sendo desenvolvidos. Algumas vantagens da CE sobre as demais técnicas de separação são marcantes, tais como: possibilidade de automação, rapidez na obtenção dos resultados e alto poder de resolução. A pequena quantidade de amostra que é necessária para uma análise é uma característica muito interessante no estudo de sistemas biológicos, sendo que normalmente são injetados no capilar, volumes de 5 a 50 nl de amostra. Por outro lado, esta reduzida quantidade de amostra utilizada, a pequena janela de detecção e as baixas concentrações dos analitos nas amostras biológicas, são fatores que desafiam os pesquisadores nesta área. Para contornar este problema diversos métodos de pré-concentração de amostra foram desenvolvidos. Neste trabalho, foi desenvolvido um método inédito de pré-concentração de amostras através de gradientes térmicos em CE. O princípio do método é concentrar o analito quando ele passa de uma zona de alta temperatura para uma zona de baixa temperatura. Um modelo teórico foi desenvolvido para auxiliar o planejamento experimental no que diz respeito à determinação das condições em que a corrida deve ser realizada (pH, tipo de tampão, temperatura) para aplicar a compressão térmica em um analito. Foi utilizado L-Lisina derivatizada com naftaleno 2,3-dicarboxialdeído (Lys/NDA) como analito modelo. Uma diferença de temperatura de 58 °C entre as duas zonas térmicas foi suficiente para comprimir em 2,5 vezes a banda da Lys/NDA em um tampão de baixo coeficiente térmico com o pH ajustado para 8,7. O método de compressão de banda por gradientes térmicos proposto neste trabalho é uma nova opção para aumentar a sensibilidade e a resolução em CE. Ao contrário dos métodos clássicos de pré-concentração, esse novo método pode ser aplicado em amostras tanto com alta ou baixa condutividade iônica, comprimir bandas de analitos aniônicos ou catiônicos e ser aplicado em corridas em solução livre ou não. Além disso, considerando que o controle de temperatura seja realizado de maneira automatizada, pode apresentar altas taxas de reprodutibilidade, além de ser de simples e de fácil aplicação, podendo ser empregado em análises de rotina. Diferentes LEDs (Light Emitting Diode) foram testado em detector por fluorescência induzida por LED. Além disso, um novo sistema de aquisição de dados e tratamento de sinal utilizando a placa de som de um PC (Personal Computer) e um amplificador Lock-in emulado por software foi montado e comparado com um sistema de aquisição de dados convencional. O equipamento de CE utilizado neste trabalho com esses componentes, apresentou uma elevada sensibilidade, na faixa de 0,5 à 1 fmol para os peptídeos e aminoácidos testados e foi superior ao sistema convencional em vários aspectos como: sensibilidade de detecção, faixa linear de detecção em concentração do analito, facilidade de operação e custo do sistema.