59 resultados para Modelo cinético de pseudo-segunda-ordem


Relevância:

30.00% 30.00%

Publicador:

Resumo:

As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho apresenta inicialmente algumas conexões transversais nos tempos de vida da investigadora, preliminares à investigação. A partir dessas conexões, foram produzidas as questões que motivaram a elaboração da investigação sobre o desejo de aprender em um grupo de sujeitos de um programa de educação de jovens e adultos, bem como a procura e escolha de um referencial teórico que permitiu acompanhar a “atualização” desse desejo ao longo dos seus diversos tempos vividos. Assim, a investigação partiu do problema de que os movimentos de “atualização” do desejo de aprender no tempo de aprendizagem de jovens e adultos não obedecem a uma ordem cronológica, mas sim aos diferentes modos de articulação do presente, passado e futuro. No processo de construção do referencial teórico para investigar a “atualização” do desejo de aprender foi escolhido como eixo central o tempo, na concepção bergsoniana de duração, na qual se produzem a diferença e a singularidade, imbricadas no movimento de criação do sujeito. Embora a escolha tenha recaído no tempo, esse é inseparável do espaço, daí que foi elaborada uma análise da sociedade capitalista globalizada da contemporaneidade. O espaço é entendido aqui como extensão onde se produz o sujeito, o qual sofre as investidas dos mecanismos econômicos e culturais hegemônicos para tentar cooptar o seu desejo, acenando-lhe com a ilusão de uma total satisfação, através do consumo. Para tanto, foram analisados alguns mecanismos utilizados para a cooptação do sujeito, tais como a omissão ou suspensão de sua memória, como meio de conhecimento individual e da humanidade, cujos desdobramentos são a construção de uma lógica da não diferença e o desrespeito à alteridade, o que caracteriza a massificação da sociedade Junto à análise da sociedade capitalista massificada foi feita também uma análise das possibilidades de novas e múltiplas formas de subjetivação produtoras de linhas de fuga à homogeneização do sujeito, de dentro da sociedade, pois não há um fora possível. As novas possibilidades foram delineadas a partir de um referencial teórico encontrado na psicanálise, com suas contribuições sobre a produção do desejo, bem como as interlocuções possíveis com a filosofia da diferença em Deleuze. Quanto à orientação metodológica da investigação, a escolha do eixo tempo levou à orientação do método intuitivo bergsoniano através da leitura feita por Deleuze, o qual utiliza o caso-pensamento que, aqui, é a educação de jovens e adultos em processo de alfabetização, separando as questões relativas ao espaço e ao tempo e privilegiando o segundo; verifica se o problema proposto é um falso ou um verdadeiro problema, esse último propõe outras questões ao longo da investigação, não busca apenas soluções; acompanha o movimento do pensamento sem ter, a priori, um modelo dividido em categorias, mas procurando vê-lo na linha da duração e da produção de uma memória ontológica. O acompanhamento do pensamento dos sujeitos foi feito através da realização de entrevistas, nas quais falaram sobre o seu passado, o seu presente e suas perspectivas futuras, tendo como eixo das perguntas o desejo de aprender. Foi delimitado um grupo de nove sujeitos que participaram da investigação e estabelecidos os três tempos para serem entrevistados: o tempo de rememoração, no início do atual período de escolarização, para lembrar suas experiências passadas em relação ao desejo de freqüentar a escola; o tempo de produção/passagem, ao final do primeiro semestre de escolarização, para falar de suas experiências atuais; o tempo de fechamento/abertura, um ano após a segunda entrevista, para fazer um balanço de suas aprendizagens e das possíveis mudanças em sua vida a partir dessas aprendizagens. Esses três tempos permitiram delinear a cartografia do movimento de “atualização” do desejo de aprender dos sujeitos investigados. Após cada tempo de entrevistas dos sujeitos foi feita uma análise do que era comum a todas as falas dos sujeitos, não no sentido de encontrar generalidades, mas relativo à existência dos movimentos do seu pensamento, constituindo-se nos três entretempos da investigadora aprender e suas conexões com a produção da diferença, do estilo e da singularidade, bem como as articulações delineadas entre o presente da aprendizagem na escola, o passado e futuro de cada sujeito. A partir das conclusões e problemáticas construídas através da análise das entrevistas, foi possível apontar para algumas indicações de como se materializam as investidas da sociedade capitalista globalizada nos movimentos capilares sociais, no caso, nos sujeitos de um programa de educação de jovens e adultos, o que se mostrou de forma não monolítica, mas com ranhuras e falhas, o que permitiu ressaltar a máxima de que “nada está decidido” a respeito do sujeito e da subjetividade no seu processo de aprendizagem.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Quantificação de incerteza e risco tem aplicação direta no projeto de limites de cava e na programação de produção. Pequenas variações nas condições de contorno de um projeto podem ter impacto significativo sobre o retorno final do mesmo na ordem de milhões de dólares. Preço de mercado do bem mineral, o custo de capital, taxas de atratividade, etc, são fatores usualmente testados para analisar a viabilidade de um empreendimento, porém, raramente é considerada a incerteza relacionada ao atributo geológico em questão. O propósito de um planejamento de lavra tem sido prover subsidio para o engenheiro de minas decidir sobre a capacidade de minerar determinadas unidades de lavra do depósito a partir de teores estimados. Salienta-se porém que existe, a partir dos dados amostrais, incertezas a respeito do modelo geológico que devem ser consideradas ao se projetar uma cava e desenvolver a lavra. A simulação geoestatistica tem a capacidade de produzir múltiplos modelos equiprováveis, os quais podem ser avaliados independentementecomo possíveis cenários do depósito mineral. Simulação condicional, ao contrário de técnicas de interpolação e estimativa, provê respostas para questões associadas a risco devido à variações nos teores do modelo geológico. Ao gerar múltiplos cenários tem-se acesso à probabilidade e conseqüentemente às variações de retorno financeiro e rotas de extração de minério de um projeto. o presente trabalho tem como objetivo a investigação de novas metodologias que contribuam para a construção de cenários de planejamento de lavra e avaliação do impacto provocado nestes pela incerteza fornecida a partir de modelos simulados. As respostas buscadas dentro da abordagem sugerida por esse trabalho, compreendem a definição de uma metodologia para controle e planejamento de lavra a médio e longo prazo por incorporação da flutuabilidade local associada ao minério, avaliando a sensibilidade do retorno financeiro e o traçado de lavra em relação ao método de geração do modelo geológico de teores. Para solucionar o problema em questão, sugere-se a geração de modelos estocásticos e a alimentação de múltiplos modelos selecionados por critérios considerados relevantes para a delimitação do espaço de incerteza. A aplicação de funções de transferência tais como mudança de suporte e seqüenciamento de produção sobre os modelos simulados é a chave para a obtenção de respostas a respeito do impacto sobre a lucratividade de um projeto. Ao alimentar à essas funções modelos equiprováveis que preservam as características estatísticas e a conectividade espacial dos dados amostrais mas que invariavelmente possuem diferentes distribuições de teores tem-se a dimensão em termos econômicos do risco associado à incerteza geológica. Foi confrontado o retorno financeiro produzido por modelos simulados e verificou-se para o caso especifico que os métodos de simulação geoestatistica empregados não produziram diferenças significativas quando comparados casos selecionados segundo os mesmos critérios. Porém, entre cenários extremos gerados pelo mesmo algoritmo de simulação foram verificadas desigualdades relevantes. Verificou-se também a transferência de minério entre diferentes classes de qualidade ao proceder-se com variações nas dimensões dos blocos de lavra.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A cada ano, mais de 500.000 pessoas vêm a falecer em acidentes de trânsito no mundo. No Brasil, estima-se entre 30.000 e 50.000 mortos no mesmo período. A velocidade elevada é considerada como um dos principais fatores determinantes dos acidentes e da gravidade dos mesmos. O presente trabalho desenvolve uma análise da consistência geométrica de rodovias de pistas simples no Estado do Rio Grande do Sul, através da elaboração de modelos de previsão da velocidade operacional, em duas etapas distintas. Na primeira etapa, a partir da coleta de dados de velocidades pontuais e de elementos geométricos da rodovia, é elaborado um modelo que permite prever o comportamento do condutor, quanto à velocidade que emprega em seu veículo segundo diferentes condicionantes geométricas. Na segunda etapa, o modelo proposto é aplicado sobre diferentes segmentos viários de rodovias de pista simples do Estado do Rio Grande do Sul, para obtenção das velocidades operacionais previstas e os resultados comparados entre si e com as velocidades de projeto e a velocidade regulamentada. A análise dos resultados para obtenção do modelo conclui como única variável significativa para a elaboração do mesmo, entre as diversas analisadas, o raio planimétrico. Já a análise da consistência geométrica das rodovias, através da aplicação do modelo proposto, indicou que estas apresentam projetos geométricos classificados como bons quanto a sua fluidez, mas classificados como fracos quanto ao dimensionamento dos elementos geométricos de segurança (superelevação, superlargura e distâncias de visibilidade) em decorrência de diferenças superiores a 20 km/h entre a velocidade operacional e a velocidade de projeto. Por fim, observa que as rodovias projetadascom velocidadediretriz de 60 km/h ou inferior são as que apresentam os piores resultados na análise da consistência geométrica e que o condutor brasileiro (observado na elaboração do modelo) não pode ser considerado um velocista, mas sim, um condutor mais "ousado", em situações adversas, se comparado a condutores de outros países, em especial, dos Estados Unidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A modernidade exige a evolução das Polícias Estaduais, principalmente em relação a aspectos que melhor beneficiem a sociedade, considerando-se os vetores da economia, da execução completa de atividades e de um sistema de administração mais qualificado. As Polícias Militares e as Civis requerem formas de gestão que melhor qualifiquem as relações internas e externas, em busca da racionalização e da eficiência. A par disso, é fundamental que as ações policiais se desenvolvam com estrito respeito à Constituição e às leis. Para o desenvolvimento desse tema, o autor examinou a legislação nacional e estadual referente à Segurança Pública, bem como teorias de administração e, em especial, os sistemas de administração definidos por LIKERT. A pesquisa utilizou metodologia qualificativa e quantitativa. A primeira foi usada para o tratamento dos dados coletados nas questões fechadas e, a Segunda, para a análise das palavras citadas. O instrumento utilizado para a coleta de dados foi um questionário contendo 51 (cinqüenta e uma) questões objetivas e 3 (três) questões abertas, tendo sido aplicado a 201 (duzentos e um) servidores, dos quais 74 (setenta e quatro) policiais civis e 124 (cento e vinte e quatro) policiais militares. A pesquisa quantitativa concluiu que os oficiais da Brigada Militar e os delegados da Polícia Civil exercem uma chefia identificada pelo sistema de Likert como sendo autoritária-benévola. Não houve diferença significativa entre as médias de percepção dos servidores da PC e da BM sobre os sistemas de chefia existentes ou idealizados. Ficou identificado que o sistema praticado (real) pela chefia é significativamente diferente do idealizado (ideal) pelos servidores da PC ou da BM. A análise qualitativa confirmou os resultados, permitindo identificar que, nas citações de palavras qualificadoras sobre o chefe, o enfoque com o maior percentual de freqüência foi autoritária, com 78% (setenta e oito por cento) das palavras citadas por PMs ou PCs, contra 22% (vinte e dois por cento) do sistema dito participativo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A observação de uma nova classe de eventos no espalhamento profundamente inelástico (D18) elétron-próton tem gerado grande interesse teórico e experimental. Estes eventos apresentam grandes intervalos na variável pseudo-rapidez ("7)sem deteção de partículas e são interpretados como oriundos de processos com caráter difrativo. A difração é descrita segundo uma base teórica fundamentada na Teoria de Regge, a qual já era utilizada na descrição das interações difrativas nas colisões hadrônicas. A Cromodinâmica Quântica (QCD) descreve com boa concordância todas as características usuais do D18, entretanto, frente a esses fenômenos novos elementos estão sendo incorporados na teoria. A questão principal é investigar se os processos difrativos são dominados pela troca da trajetória de Regge dominante, o Pomeron, ou por interações perturbativas descritas pela QCD. OS dados existentes não permitem distingüir qual a dominância e possivelmente há uma mistura de efeitos perturbativos QCD e não-perturbativos (Regge). Neste trabalho contrapomos o modelo de Regge e o Modelo Partônico para a difração. O observável físico utilizado nas análises é a função de estrutura difrativa Ff(xjp, {3,Q2). Apontamos as características e predições do Modelo Partônico para este observável. Encontramos que o modelo descreve os dados, entretanto há problemas em regiões específicas do espectro das variáveis cinemáticas. Recentes medidas da função de estrutura apresentam uma quebra de sua fatorização. No sentido de explicar esta nova característica introduzimos uma troca extra de reggeon, de caráter não-perturbativo, como uma extensão do Modelo Partônico. Os resultados mostram que a troca de reggeon é importante para {3< 0.4 e descreve bem a quebra de fatorização. Há melhoria na dependência para pequeno {3,entretanto a troca de reggeon é pouco sensível à variação do momento transferido Q2.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho trata do desenvolvimento de um equipamento de desbastamento iônico aplicado ao afinamento de amostras para análise com a técnica de microscopia eletrônica de transmissão (MET). A técnica de MET é uma das mais importantes para a caracterização da microestrutura de praticamente todas as classes de materiais sólidos. Contudo, esta técnica requer amostras suficientemente finas (espessuras típicas da ordem de 100 nm) para que os elétrons transmitidos proporcionem informação relevante da microestrutura. Com exceção do sistema de vácuo, todos os demais componentes do equipamento (fonte de íons, câmara de vácuo, fonte de alta tensão e suporte mecânico das amostras) foram construídos na UFRGS. O equipamento foi testado através da preparação de amostras de silício. As amostras obtidas apresentam áreas de observação amplas e suficientemente finas permitindo uma caracterização microestrutural detalhada mesmo com feixes de elétrons acelerados com potencial de 120 kV. Além disso, os valores de taxa de desbaste em torno de 1,5 mm/h foram obtidos em amostras bombardeadas com íons de Ar+ acelerados com um potencial de 6 kV. Tais resultados mostram que o equipamento tem uma performance semelhante a um equipamento comercial A segunda contribuição do trabalho foi a de introduzir um estudo sistemático sobre a formação de camadas amorfas e a produção de átomos auto intersticiais dentro da região cristalina das amostras de silício. Trata-se de um assunto atual pois tais efeitos ainda não são bem conhecidos. Apesar do estudo ter sido realizado em um material específico (Si), os resultados obtidos podem ser aproveitados como modelo para outros materiais. A formação de camadas amorfas foi caracterizada em função dos parâmetros: ângulo de incidência e energia do feixe de íons de Ar+ e temperatura da amostra durante a irradiação. A produção e/ou injeção de átomos auto intersticiais na região cristalina foi estudada em função do ângulo de incidência e da energia do feixe de íons. Os resultados mostram que a espessura da camada amorfa cresce com o aumento da energia e do ângulo de incidência do feixe e com a diminuição da temperatura do alvo. A taxa de produção de átomos intersticiais dentro da região cristalina apresenta um máximo para ângulos em torno de 15° independentemente da energia do feixe de íons.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação é estruturada em três partes. Na primeira, revisa-se a noção de filtro sensorial, com enfoque particular no paradigma do P50, uma técnica eletroneurofisiológica de extremo valor para a investigação da neurobiologia básica subjacente aos defeitos de processamento sensorial que caracterizam algumas doenças mentais, e mais particularmente a esquizofrenia, sobre a qual dedica-se especial interesse. Na segunda, revisa-se a hipótese, proposta recentemente por Lara e Souza (2000), de hipofunção adenosinérgica como disfunção bioquímica básica na esquizofrenia, à luz das evidências mais recentes. Na terceira, desenvolve-se um trabalho experimental original com o intuito de investigar a hipótese hipoadenosinérgica da esquizofrenia. Trata-se de um desafio farmacológico, de um ensaio clínico cruzado onde 13 voluntários hígidos foram submetidos a tratamento com teofilina (um antagonista não-seletivo dos receptores de adenosina do tipo A1 e A2A) e a placebo, em dois momentos diferentes, tendo se avaliado os seus potenciais evocados de acordo com o paradigma do P50 antes (em seu valor basal) e após o tratamento, levantando-se uma curva de efeito com base no tempo. Paralelamente, avaliaram-se 17 pacientes com diagnóstico estabelecido de esquizofrenia, clinicamente estáveis, em acompanhamento ambulatorial e em uso de medicação neuroléptica típica, com a intenção de fornecer um grupo adicional de comparação e de replicar os achados prévios de falha de supressão do componente P50 na esquizofrenia, um aspecto fundamental para demonstrar o domínio da metodologia experimental, que foi aqui empregada pela primeira vez em nosso meio. Este estudo foi capaz de mostrar que a indução de um estado transitório de hipofunção adenosinérgica em indivíduos normais, mostra perda da supressão. Em outras palavras, que déficits no processamento da informação auditiva, que não existiam nos indivíduos normais, foram provocados pela utilização de teofilina, que, bloqueando os receptores de adenosina A1 e A2A, provocou um estado hipoadenosinérgico transitório. A disfunção provocada pela teofilina foi da mesma ordem de grandeza da verificada nos pacientes com esquizofrenia. Estes resultados fornecem evidência que corroboram o modelo de hipofunção adenosinérgica para a esquizofrenia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os debates e estudos sobre a importância do conhecimento organizacional têm sido cada vez mais freqüentes nos últimos anos. As empresas e universidades de negócios consideram a Gestão do Conhecimento uma vantagem competitiva para as organizações que conseguem estabelecer e aplicar modelos voltados para este fim. A bibliografia atual sobre este tema tem demonstrado duas tendências de propostas práticas para a Gestão do Conhecimento. A primeira enfatiza a importância do desenvolvimento de softwares responsáveis pela disseminação e estocagem dos conhecimentos organizacionais adquiridos de diversas fontes. A segunda, aplicada neste trabalho, é focada na capacidade e potencial dos indivíduos, e destaca a importância de criar e compartilhar conhecimentos através das pessoas. Este trabalho demonstra, a partir de um modelo de criação e gestão do conhecimento organizacional desenvolvido pelos professores Ikujiro Nonaka e Hirotaka Takeuchi, e denominado "Espiral do Conhecimento", uma aplicação prática de Gestão do Conhecimento numa equipe de representantes de vendas de uma indústria farmacêutica. Evidenciam-se, como conseqüência desta adaptação, novas rotinas do processo de "Espiral do Conhecimento", apresentando-se melhorias qualitativas e quantitativas nos resultados da equipe.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso da mecânica de fluidos computacional no estudo de processos envolvendo o escoamento de fluidos poliméricos está cada vez mais presente nas indústrias de transformação de polímeros. Um código computacional voltado a esta função, para que possa ser aplicado com sucesso, deve levar a predições mais próximas possível da realidade (modelagem), de uma forma relativamente rápida e eficiente (simulação). Em relação à etapa de modelagem, o ponto chave é a seleção de uma equação constitutiva que represente bem as características reológicas do fluido, dentre as diversas opções existentes. Para a etapa de simulação, ou seja, a resolução numérica das equações do modelo, existem diversas metodologias encontradas na literatura, cada qual com suas vantagens e desvantagens. Neste tópico se enquadra o trabalho em questão, que propõe uma nova metodologia para a resolução das equações governantes do escoamento de fluidos viscoelásticos. Esta se baseia no método dos volumes finitos, usando o arranjo co-localizado para as variáveis do problema, e na utilização de aproximações de alta ordem para os fluxos médios lineares e não-lineares e para outros termos não lineares que surgem da discretização das equações constitutivas. Nesta metodologia, trabalha-se com os valores médios das variáveis nos volumes durante todo o processo de resolução, sendo que os valores pontuais são obtidos ao final do procedimento via deconvolução. A solução do sistema de equações não lineares, resultante da discretização das equações, é feita de forma simultânea, usando o método de Newton São mostrados então, resultados da aplicação da metodologia proposta em problemas envolvendo escoamentos de fluidos newtonianos e fluidos viscoelásticos. Para descrever o comportamento reológico destes últimos, são usadas duas equações constitutivas, que são o modelo de Oldroyd-B e o modelo de Phan-Thien-Tanner Simplificado. Por estes resultados pode-se ver que a metodologia é muito promissora, apresentando algumas vantagens frente às metodologias convencionais em volumes finitos. A implementação atual da metodologia desenvolvida está restrita a malhas uniformes e, consequentemente, soluções para problemas com geometrias complexas, que necessitam de refinamento localizado da malha, foram obtidas somente para baixos números de Weissenberg, devido a limitação do custo computacional. Esta restrição pode ser contornada, tornando o seu uso competitivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O estudo sobre maturidade gerencial desenvolveu-se com base no modelo de Chris Argyris e foi enriquecido com reflexões, proposições e indagações de outros autores que, direta ou indiretamente, estudaram o comportamento de dirigentes em organizações de aprendizagem e de empresas excelentes. O estudo foi realizado a partir das manifestações de dirigentes de empresas de pequeno, médio e grande porte, localizadas no Município de Porto Alegre. Das sete dimensões estudadas - desdobradas em atitudes e habilidades - verificou-se que os dirigentes consideram muito importantes, a iniciativa e a perspectivas de ação; importantes, em ordem decrescente de percentual de respostas, autonomia e autocontrole; seguidas, em igualdade de condições, pela flexibilidade e auto-estima, e finalmente pela dimensão interesse. Foram constatadas diferenças significativas de respostas apresentadas pelos dirigentes do sexo feminino em relação às respostas fornecidas pelos do sexo masculino, assim como das respostas fornecidas por dirigentes que há mais tempo estão na empresa ou no exercício da função em relação aos que têm menos tempo de exercício profissional. Também foram constatados resultados surpreendentes que confirmam a interferência de aspectos culturais e educacionais nas respostas dadas. As variáveis idade, tempo na organização e no exercício da função na empresa demonstraram também sua interferência. Os resultados da pesquisa permitiram igualmente divisar caminhos, onde existem elos importantes, sendo o principal o de considerar o homem como agente de sua história e de sua empresa, na medida em que ele se conhecer mais e intencionalmente realizar vivências que o levem a um desenvolvimento pessoal – alcançar sua maturidade na empresa. São feitas reflexões que requerem alternativas diferenciadas de intervenção para as Universidades e Escolas Técnicas, para as áreas de consultoria e de Recursos Humanos das Empresas. Também se confirmou a necessidade de serem realizados novos estudos para aprofundar a temática, tanto em nível empresarial, quanto acadêmico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Um grande desafio relacionado à química da resina poliéster carboxifuncional, para aplicação em tinta em pó, é conseguir um balanço adequado entre a sua massa molar, funcionalidade, viscosidade e temperatura de transição vítrea (Tg). Essas características devem permitir a aplicação da resina na produção de tinta em pó na qual seja possível a obtenção de boa estabilidade durante sua estocagem e ótimas propriedades mecânicas durante a sua vida útil. Nesta tese, desenvolveu-se a introdução de uma metodologia para a caracterização de resinas poliésteres carboxifuncionais para aplicação em tinta em pó, baseada em reometria capilar e calorimetria diferencial de varredura (DSC). Esta se diferencia daquela baseada em métodos usuais muito subjetivos, usados corriqueiramente no controle do processo de síntese destas resinas. Os resultados de DSC mostram que todas as resinas poliésteres carboxifuncionais sintetizadas neste trabalho são completamente amorfas, sendo a Tg um parâmetro sensível à modificação da composição da resina. A determinação da viscosidade de cisalhamento das resinas utilizando reômetro capilar em comparação a outras técnicas usuais, permite a obtenção de valores mais absolutos, independente da ordem de grandeza da massa molar e da funcionalidade da resina, demonstrando ser uma técnica simples, eficaz e de grande utilidade em relação às atualmente utilizadas. A utilização da técnica de DSC permitiu avaliar a cinética da reação de cura do sistema poliéster/triglicidilisocianurato (TGIC) através de métodos cinéticos isotérmicos e dinâmicos. Através do método isotérmico determinou-se o grau de conversão da reação para vários tempos de cura, e pelos métodos dinâmicos de Kissinger, Osawa e Meia Largura determinou-se a energia de ativação da cura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As aplicações da mecânica vibratória vêm crescendo significativamente na análise de sistemas de suspensões e estruturas de veículos, dentre outras. Desta forma, o presente trabalho desenvolve técnicas para a simulação e o controle de uma suspensão de automóvel utilizando modelos dinâmicos com um, dois e três graus de liberdade. Na obtenção das equações do movimento para o sistema massa-mola-amortecedor, o modelo matemático utilizado tem como base a equação de Lagrange e a segunda lei de Newton, com condições iniciais apropriadas. A solução numérica destas equações é obtida através do método de Runge-Kutta de 4ª ordem, utilizando o software MATLAB. Para controlar as vibrações do sistema utilizou-se três métodos diferentes de controle: clássico, LQR e alocação de pólos. O sistema assim obtido satisfaz as condições de estabilidade e de desempenho e é factível para aplicações práticas, pois os resultados obtidos comparam adequadamente com dados analíticos, numéricos ou experimentais encontrados na literatura, indicando que técnicas de controle como o clássico podem ser simples e eficientes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O produto de algumas pesquisas em andamento, especialmente de estudos que se propõem a refletir sobre as conseqüências hegemônicas da globalização do capitalismo na Educação Superior, apontam para a disseminação de técnicas de stricto sensu empresarial, objetivando o aprimoramento da gestão acadêmico-administrativa das universidades. Contrapondo-se a essas concepções, em cujas epistemologias, não raro, identifica-se a coação, sobretudo, da autonomia acadêmica, o presente trabalho apresenta a hipótese da co-responsabilidade como uma proposta capaz de suscitar a integração das dimensões pedagógicas e econômico-financeiras que se configuram, normalmente, dissociadas no interior das Instituições de Ensino Superior (IES). A partir desse pressuposto, especialmente centrado nos processos decisórios das IES, admite-se a possibilidade do êxito da gestão administrativa, ou seja, a manutenção e o acréscimo das receitas destinadas à melhoria das condições de oferta dos cursos (bibliotecas, laboratórios, incentivo à dedicação e capacitação docente, pesquisa, extensão etc) como atrelada ao êxito da gestão pedagógica, ou seja, do aprimoramento do ensino e da qualidade das aprendizagens e vice-versa. Embora essas duas injunções, se atreladas a paradigmas simplificadores, dever-se-iam anular em um círculo vicioso, o presente estudo fundamenta-se na teoria da complexidade (de Edgar Morin), por meio da qual se torna possível compreender a organização dos sistemas através de antagonismos (de ordem e desordem), mesmo, aparentemente, contraditórios. Como exemplo prático de implementação desse modelo teórico, esta tese mostra uma experiência vivenciada na Universidade Católica de Pelotas (Brasil), capaz de corroborar a premissa proposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Modelos BDI (ou seja, modelos Beliefs-Desires-Intentions models) de agentes têm sido utilizados já há algum tempo. O objetivo destes modelos é permitir a caracterização de agentes utilizando noções antropomórficas, tais como estados mentais e ações. Usualmente, estas noções e suas propriedades são formalmente definidas utilizandos formalismos lógicos que permitem aos teóricos analisar, especificar e verificar agentes racionais. No entanto, apesar de diversos sistemas já terem sido desenvolvidos baseados nestes modelos, é geralmente aceito que existe uma distância significativa entre esta lógicas BDI poderosas e sistemas reais. Este trabalho defende que a principal razão para a existência desta distância é que os formalismos lógicos utilizados para definir os modelos de agentes não possuem uma semântica operacional que os suporte. Por “semântica operacional” entende-se tanto procedimentos de prova que sejam corretos e completos em relação à semântica da lógica, bem como mecanismos que realizem os diferentes tipos de raciocínio necessários para se modelar agentes. Há, pelo menos, duas abordagens que podem ser utilizadas para superar esta limitação dos modelos BDI. Uma é estender as lógicas BDI existentes com a semântica operacional apropriada de maneira que as teorias de agentes se tornem computacionais. Isto pode ser alcançado através da definição daqueles procedimentos de prova para as lógicas usadas na definição dos estados mentais. A outra abordagem é definir os modelos BDI utilizando formalismos lógicos apropriados que sejam, ao mesmo tempo, suficientemente poderosos para representar estados mentais e que possuam procedimentos operacionais que permitam a utilizaçao da lógica como um formalismo para representação do conhecimento, ao se construir os agentes. Esta é a abordagem seguida neste trabalho. Assim, o propósito deste trabalho é apresentar um modelo BDI que, além de ser um modelo formal de agente, seja também adequado para ser utilizado para implementar agentes. Ao invés de definir um novo formalismo lógico, ou de estender um formalismo existente com uma semântica operacional, define-se as noções de crenças, desejos e intenções utilizando um formalismo lógico que seja, ao mesmo tempo, formalmente bem-definido e computacional. O formalismo escolhido é a Programação em Lógica Estendida com Negação Explícita (ELP) com a semântica dada pelaWFSX (Well-Founded Semantics with Explicit Negation - Semântica Bem-Fundada com Negação Explícita). ELP com a WFSX (referida apenas por ELP daqui para frente) estende programas em lógica ditos normais com uma segunda negação, a negação explícita1. Esta extensão permite que informação negativa seja explicitamente representada (como uma crença que uma propriedade P não se verifica, que uma intenção I não deva se verificar) e aumenta a expressividade da linguagem. No entanto, quando se introduz informação negativa, pode ser necessário ter que se lidar com programas contraditórios. A ELP, além de fornecer os procedimentos de prova necessários para as teorias expressas na sua linguagem, também fornece um mecanismo para determinar como alterar minimamente o programa em lógica de forma a remover as possíveis contradições. O modelo aqui proposto se beneficia destas características fornecidas pelo formalismo lógico. Como é usual neste tipo de contexto, este trabalho foca na definição formal dos estados mentais em como o agente se comporta, dados tais estados mentais. Mas, constrastando com as abordagens até hoje utilizadas, o modelo apresentanto não é apenas uma especificação de agente, mas pode tanto ser executado de forma a verificar o comportamento de um agente real, como ser utilizado como mecanismo de raciocínio pelo agente durante sua execução. Para construir este modelo, parte-se da análise tradicional realizada na psicologia de senso comum, onde além de crenças e desejos, intenções também é considerada como um estado mental fundamental. Assim, inicialmente define-se estes três estados mentais e as relações estáticas entre eles, notadamente restrições sobre a consistência entre estes estados mentais. Em seguida, parte-se para a definição de aspectos dinâmicos dos estados mentais, especificamente como um agente escolhe estas intenções, e quando e como ele revisa estas intenções. Em resumo, o modelo resultante possui duas características fundamentais:(1) ele pode ser usado como um ambiente para a especificação de agentes, onde é possível definir formalmente agentes utilizando estados mentais, definir formalmente propriedades para os agentes e verificar se estas propriedades são satifeitas pelos agentes; e (2) também como ambientes para implementar agentes.