49 resultados para modelos empíricos
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.
Resumo:
Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.
Resumo:
A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.
Resumo:
O presente trabalho apresenta um estudo experimental sobre o desempenho de reforços de pavimentos asfálticos de uma via urbana com elevado volume de tráfego comercial pesado no município de São Paulo, monitorados durante quatro anos desde a mais recente restauração executada. A pesquisa envolveu o acompanhamento sistemático de seções pré-selecionadas na Avenida dos Bandeirantes, por meio de medidas de irregularidade longitudinal com um medidor tipo resposta bem como do trincamento superficial com o mapeamento e registros realizados em campo. A Avenida dos Bandeirantes é o principal corredor de interligação entre as vias localizadas no Oeste do Estado de São Paulo com o Porto de Santos, absorvendo 58% do total de veículos que passam pela Região Metropolitana, totalizando aproximadamente de 250.000 veículos/dia (em ambos os sentidos), sendo destes, cerca de 20.000 caminhões. Combase em dados levantados em campo e em projetos de restauração anteriormente realizadosforam desenvolvidos modelos empíricos de previsão de desempenho dos reforçosde pavimentos asfálticos,levando em consideração fatores relevantes para seu comportamento. Para isto, foram testados modelos lineares com diferentes estruturas de covariância e também modelos de regressão logística, que ao final mostraram-se mais conservadores que aqueles empregados na previsão de desempenho do programa HDM-4, para as condições do problema, no que tange à evolução do trincamento. No caso de previsão de irregularidade, observaram-se resultados similares entre os modelos desenvolvidos e aqueles preconizados pelo programa HDM-4. Fornecer suporte para decisões relacionadas à gerência de manutenção de pavimentos urbanos de grandes metrópoles e considerar modelos estatísticos ainda pouco utilizados para prever desempenho foram as principais contribuições buscadas durante a realização da pesquisa.
Resumo:
O objetivo deste trabalho foi investigar como fazer os alunos modelarem mentalmente os enunciados de problemas de papel-e-lápis a fim de entendê-los e resolvê-los baseados em procedimentos analíticos e não buscando uma “fórmula”. Foram realizados cinco estudos empíricos com alunos universitários dos cursos de Engenharia e Física da Pontifícia Universidade Católica do Rio Grande do Sul, cursando a disciplina de Mecânica Geral. Foi utilizada uma metodologia qualitativa baseada em depoimentos verbais (durante aulas exclusivas de problemas e entrevistas semi-estruturadas) e escritos (em testes e exames) durante o período de 1998 e 2004. O trabalho está subsidiado teoricamente pelas teorias dos modelos mentais de Johnson-Laird e dos campos conceituais de Vergnaud, tendo como teoria educacional subjacente, a teoria educacional da aprendizagem significativa de Ausubel. Resultados da pesquisa parecem dar suporte para a hipótese da autora, segundo a qual a representação mental dos enunciados dos problemas, apresentados acompanhados ou não por uma representação pictórica, podem ser facilitados pelo ensino explícito da modelagem física das situações envolvidas. Os conhecimentos-em-ação que os estudantes usam, como se pode inferir de suas soluções verbais e escritas, identificaram algumas características em seus desempenhos que pode ajudar com que os professores entendam os processos que eles usam durante as atividades de resolução de problemas, com possíveis conseqüências para os procedimentos usados pelos professores com relação ao ensino.
Resumo:
Este trabalho apresenta o projeto de uma interface visual para modelos de bancos de dados orientados a objetos, com suporte para versões. Um requisito importante, não atendido pelas interfaces visuais específicas e genéricas para sistemas orientados a objetos, é a capacidade de definir e manipular versões de um objeto nos vários níveis da hierarquia de classes (herança por extensão, adotada pelo modelo de versões [GOL 95]). As interfaces, que manipulam versões, suportam essa característica no nível mais especializado da hierarquia (herança por refinamento, adotada pelos principais SGBDOOs). Procurando prover a possibilidade do versionamento de objetos nos vários níveis da hierarquia de classes, surgiu a motivação para projetar e desenvolver uma interface visual com funcionalidades de interfaces existentes (específicas e genéricas) e que obedeça às características principais dos Modelos de Dados Orientados a Objetos e do Modelo de Versões [GOL 95], seguindo as características recomendadas para interfaces visuais para MDOOs, propostas em [SIL 96]. Foi implementado um protótipo com algumas das características projetadas para o browser de objeto e seu suporte para versões.
Resumo:
Neste trabalho, além de investigarmos o tipo de representação mental (proposições, imagens ou modelos mentais) utilizado por estudantes de Física Geral na área de Mecânica Newtoniana, tentamos identificar possíveis modelos mentais que estes estudantes teriam sobre alguns conceitos físicos. Baseamos nosso estudo na Teoria dos Modelos Mentais de Johnson-Laird. Estudantes de nível universitário foram observados durante dois semestres com o objetivo de determinar o tipo de representação mental que eles teriam utilizado durante o curso, quando resolviam os problemas e as questões propostas nas tarefas instrucionais. Foi realizada uma entrevista no final do curso com a finalidade de encontrar elementos adicionais que nos permitissem inferir modelos mentais sobre conceitos físicos usados pelos estudantes na elaboração de suas respostas. Os resultados desta pesquisa sugerem a importância dos modelos mentais na compreensão e uso dos conceitos físicos. Parece que quanto mais “elaborados” os modelos mentais, mais facilmente os alunos poderiam compreender situações e contextos distintos daqueles trabalhados em aula.
Resumo:
Este trabalho discute a aplicação de modelos de Pesquisa Operacional como base para o gerenciamento de operações e análise de tecnologias em empresa de transporte de carga. Inicialmente, busca-se contextualizar o escopo deste trabalho dentro do ambiente competitivo atual a fim de que sejam percebidas as conexões entre os sistemas de operações vigentes e os modelos apresentados. Também é feita uma discussão preliminar do conceito de logística, visto que este enseja uma série de acepções para o termo. Em seguida é apresentada uma revisão de algumas ferramentas de modelagem que usualmente são aplicadas a problemas de suprimento, distribuição e transbordo de produtos. Com base nesta revisão é proposta uma abordagem hierarquizada para o tratamento de problemas de logística. Um estudo de caso realizado em uma empresa de transporte de carga busca então aplicar algumas ferramentas de Pesquisa Operacional nos diversos níveis de gerenciamento de operações. Por fim, o trabalho verifica as potencialidades do uso de uma abordagem hierarquizada e a importância da adoção de modelos em empresas de transporte de carga como forma de alavancagem da sua competividade frente as novas exigências do mercado.
Resumo:
Este trabalho apresenta uma metodologia para a geração automática de ASICs, em VHDL, a partir da linguagem de entrada Java. Como linguagem de especificação adotou-se a Linguagem Java por esta possuir características desejáveis para especificação a nível de sistema, como: orientação a objetos, portabilidade e segurança. O sistema é especificamente projetado para suportar síntese de ASICs a partir dos modelos de computação Máquina de Estados Finita e Pipeline. Neste trabalho, adotou-se estes modelos de computação por serem mais usados em sistemas embarcados As principais características exploradas são a disponibilização da geração de ASICs para a ferramenta SASHIMI, o alto nível de abstração com que o projetista pode contar em seu projeto, as otimizações de escalonamento realizadas automaticamente, e o sistema ser capaz de abstrair diferentes modelos de computação para uma descrição em VHDL. Portanto, o ambiente permite a redução do tempo de projeto e, consequentemente, dos custos agregados, diminuindo a probabilidade de erros na elaboração do projeto, portabilidade e reuso de código – através da orientação a objetos de Java – podendo-se proteger os investimentos prévios em desenvolvimento de software. A validação desses conceitos foi realizada mediante estudos de casos, utilizando-se algumas aplicações e analisando os resultados obtidos com a geração dos ASICs.
Resumo:
o objetivo desta tese é apresentar dois modelos distintos para representar as fissuras em peças de concreto armado: um do tipo distribuído e outro do tipo incorporado. Os modelos de fissura incorporada se baseiam no conceito de descontinuidades incorporadas dentro do campo de deslocamento do elemento finito padrão. Já nos modelos de fissura distribuída a descontinuidade do campo de deslocamentos causada pela fissura é espalhada ao longo do elemento. O modelo distribuído proposto apresenta um diagrama tensão-deformação multilinear e sua calibragem é feita, segundo o Código Modelo CEB-FIP 1990, através de ensaios de tirantes de concreto armado. O modelo incorporado implementado é baseado no modelo de Dvorlcin, CuiMo e Gioia, o qual não inclui a contribuição da armadura no equilíbrio interno de forças do elemento. A inclusão da parcela da armadura é feita através de um modelo de transferência de tensão por aderência, conforme Russo, Zingone e Romano, Russo e Romano e FIE - Bulletin 10. Para representar o comportamento do concreto intacto, utiliza-se o modelo constitutivo de Ottosen. Trata-se de um modelo elástico não-linear, tridimensional, que utiliza valores secantes dos parâmetros do material. Já para simular o comportamento das barras de aço da armadura, emprega-se o modelo incorporado desenvolvido por Elwi e Hrudey. Neste modelo, permite-se uma disposição arbitrária das barras de aço no interior dos elementos de concreto. O modelo constitutivo adotado para a armadura é do tipo elasto-plástico com endurecimento. Por fim, alguns exemplos numéricos são analisados com o objetivo de comprovar a eficácia dos dois modelos propostos.
Resumo:
A teoria dos ciclos político-econômicos propõe que as flutuações econômicas possam ser explicadas pelo calendário eleitoral. Sabendo que a situação econômica tem grande influência sobre a decisão de voto dos eleitores, os governantes irão manipular a política econômica a fim de maximizar as chances de vitória do candidato governista. Os estudos empíricos que visaram comprovar essa hipótese encontraram evidências de oportunismo político tanto nas variáveis macroeconômicas, quanto nos instrumentos de política econômica. A presente dissertação tem como objetivo testar a hipótese de oportunismo político nas variáveis macroeconômicas, nos instrumentos de política fiscal e na taxa de juros do Brasil entre 1980 e 2000. Para proceder os testes econométricos serão utilizados modelos autoregressivos integrados de médias móveis (ARIMA) com variáveis dummy de intercepto nos meses que antecedem às eleições. Os resultados comprovaram a hipótese de oportunismo político na taxa de inflação e na despesa total do governo federal.
Resumo:
Apomorfina é um potente agonista dopaminérgico D1/D2, utilizada no tratamento da Doença de Parkinson. Em maio de 2001, apomorfina HCl foi aprovada para utilização no tratamento da disfunção erétil, aumentando o número de usuários potenciais deste fármaco. Estudos sugerem que apomorfina e outros agonistas dopaminérgicos podem induzir neurotoxicidade mediada por seus derivados de oxidação semiquinonas e quinonas, os quais levam à formação de espécies reativas de oxigênio. Os objetivos do presente estudo foram de avaliar os possíveis efeitos genotóxicos, antimutagênicos, citotóxicos de apomorfina (APO) e de um produto derivado de sua oxidação, 8-oxo-apomorfina-semiquinona (8-OASQ), utilizando o teste Salmonella/microssoma, Mutoxiteste WP2, ensaio Cometa e teste de sensibilidade em Saccharomyces cerevisiae. Em adição, foram avaliados os efeitos de APO e 8-OASQ sobre a memória e o comportamento em ratos (tarefa de esquiva inibitória, comportamento e habituação ao campo aberto) e o comportamento estereotipado em camundongos. Ambos compostos induziram mutações por erro no quadro de leitura em linhagens de S. typhimurium TA97 e TA98, sendo que 8-OASQ foi cerca de duas vezes mais mutagênico que APO, na ausência de S9 mix. Para linhagens que detectam mutágenos oxidantes, 8-OASQ foi mutagênico, enquanto APO foi antimutagênico, inibindo a mutagenicidade induzida por H2O2 e t-BOOH em linhagens de S. typhimurium e derivadas WP2 de E. coli. O S9 mix inibiu todos os efeitos mutagênicos, provavelmente retardando a oxidação de APO ou devido à conjugação de APO e seus produtos de autoxidação, como 8-OASQ, a proteínas do S9. Em testes de sensibilidade com S. cerevisiae, APO foi citotóxica para algumas linhagens apenas nas doses mais altas. Para 8-OASQ este efeito foi dose-depende para todas as linhagens, sendo que as mutantes deficientes em catalase (ctt1), superóxido dismutase (sod1) e yap1 foram as mais sensíveis. APO protegeu as linhagens de S. cerevisiae contra danos oxidativos induzidos por concentrações altas de H2O2 e t-BOOH, enquanto que 8-OASQ aumentou os efeitos pró-oxidantes e induziu respostas adaptativas para aqueles agentes. APO e 8-OASQ induziram efeitos de prejuízo na memória de curta e de longa duração em uma tarefa de esquiva inibitória em ratos. APO, mas não 8-OASQ, prejudicou a habituação a um novo ambiente de forma dose-dependente. Os efeitos de prejuízo de memória não foram atribuídos à redução da nocicepção ou outra alteração inespecífica de comportamento, visto que nem APO e nem 8-OASQ afetaram a reatividade ao choque nas patas e comportamento durante a exploração ao campo aberto. Os resultados sugerem, portanto, que os produtos de oxidação de dopamina ou de agonistas dopaminérgicos podem induzir deficiências cognitivas.APO, mas não 8-OASQ, induziu comportamento estereotipado em camundongos machos CF-1. A falta da indução deste comportamento por 8-OASQ sugere que a autoxidação de APO causa a perda na sua habilidade de ligar-se a receptores dopaminérgicos. Pelo ensaio Cometa, 8-OASQ provocou danos ao DNA do tecido cerebral de camundongos sacrificados 1 h e 3 h, mas não 24 h após sua administração, enquanto que APO induziu um fraco aumento da freqüência de dano ao DNA 3 h após o tratamento. Esses resultados sugerem que ambos APO e 8-OASQ desempenham uma atividade genotóxica no tecido cerebral.
Resumo:
O objeto desta pesquisa é a organização tecnológica e social do trabalho em saúde no hospital, privilegiando a compreensão do espaço que a prática de enfermagem ocupa na produção de cuidados. Tem-se como objetivo analisar o processo de trabalho em um hospital universitário, procurando apreender a configuração das práticas, dos saberes, das relações sociais e das tecnologias que são operadas pelos agentes para intervenção sobre o corpo doente. Utilizou-se a abordagem dialética como referencial teórico-metodológico, procedendo-se à coleta dos dados empíricos através de observação direta do processo de trabalho em uma unidade de internação de clínica médica e de entrevistas semi-estruturadas com os profissionais. No processo de análise, classificou-se o material obtido a partir de três núcleos de estruturas de relevância: estrutura de produção de cuidados de saúde, relações sociais, autogoverno dos trabalhadores. Para discussão e interpretação do cotidiano do processo de trabalho utilizou-se, como fio condutor, o ato operatório da produção de cuidados. Constatou-se que a produção de cuidados no hospital desenvolvese a partir de um trabalho coletivo, orientado para o atendimento do corpo biológico individual, atendendo às necessidades de recuperação funcional. A produção de cuidados estrutura-se através do parcelamento e da fragmentação das ações dos diferentes agentes, para obter como produto final o diagnóstico e terapêutica. Os agentes do trabalho coletivo se articulam em torno do ato médico, que tem posição central na produção de cuidados. Porém, observou-se que os saberes e práticas se complementam e que existe espaço para que os agentes exerçam sua autonomia. Apontase a importância da ampliação do modelo clínico, contemplando a dimensão social e subjetiva do processo saúde/doença, em um projeto terapêutico compartilhado pelos diferentes profissionais da equipe de saúde. Propõe-se a transformação do processo de trabalho associada à construção de novos modelos de gestão das instituições de saúde.
Resumo:
O dimensionamento de pilares em mineração de carvão, no Brasil, sempre foi considerado conservativo em relação às metodologias e características das camadas que estava sendo lavrada. Torna-se necessário reverter o status-quo existente nesse tema para que a atividade de mineração em carvão se torne mais lucrativa e segura ao mesmo tempo. Problemas geomecânicos, que causaram acidentes fatais, diminuição das reservas de carvão, alto custo de extração e baixa recuperação na lavra são decorrentes ao baixo conhecimento do comportamento geomecânico do maciço rochoso e das metodologias de modelamento geomecânicos. Esse trabalho propõe uma nova técnologia de mapeamento geomecânico e caracterização geomecânica para determinar parâmetros geomecânicos das rochas que formam o sistema piso-pilarteto de uma camada de carvão. O dimensionamento de pilares, então, deve ser baseado nessas informações que alimentam um modelo geomecânico que utiliza métodos numéricos para solucionálos. Dentro do processo de aquisição de informações geomecânicas são propostos novos métodos de mapeamento geomecânico por janela amostral e o cálculo dos índices espaçamento médio e freqüência de descontinuidades. Baseado nas características quantitativas das descontinuidades é proposto o cálculo do RQD* (Rock Quality Designation teórico) para a camada de carvão com base na função de distribuição que se ajusta ao histograma de distribuição do espaçamento de descontinuidades. Esse procedimento refletiu melhor a qualidade do maciço rochoso, baseado no índice RMR (Rock Mass Rating). Considerando-se a qualidade do maciço rochoso e utilizando critérios de rupturas empíricos, foram estimados os parâmetros geomecânicos das rochas que alimentaram os modelos geomecânicos.(Continua)_ Foram gerados modelos numéricos para simular situações reais encontradas na camada Bonito em Santa Catarina e propor um novo paradigma para dimensionamento de pilares, baseado em simulação numérica, considerando todo o entorno do pilar, compreendendo o sistema piso-pilarteto. Os resultados desses modelos são comparados com o monitoramento das deformações dos pilares para confrontar as simulações numéricas com o comportamento geomecânico do maciço insitu. Os resultados apresentaram grande qualidade e concordância com o comportamento dos pilares apresentados no monitoramento das deformações, provando que a metodologia proposta aqui pode ser utilizada em futuros projetos de dimensionamento de pilares.