991 resultados para Modelos de estimativas
Resumo:
Este trabalho apresenta o projeto de uma interface visual para modelos de bancos de dados orientados a objetos, com suporte para versões. Um requisito importante, não atendido pelas interfaces visuais específicas e genéricas para sistemas orientados a objetos, é a capacidade de definir e manipular versões de um objeto nos vários níveis da hierarquia de classes (herança por extensão, adotada pelo modelo de versões [GOL 95]). As interfaces, que manipulam versões, suportam essa característica no nível mais especializado da hierarquia (herança por refinamento, adotada pelos principais SGBDOOs). Procurando prover a possibilidade do versionamento de objetos nos vários níveis da hierarquia de classes, surgiu a motivação para projetar e desenvolver uma interface visual com funcionalidades de interfaces existentes (específicas e genéricas) e que obedeça às características principais dos Modelos de Dados Orientados a Objetos e do Modelo de Versões [GOL 95], seguindo as características recomendadas para interfaces visuais para MDOOs, propostas em [SIL 96]. Foi implementado um protótipo com algumas das características projetadas para o browser de objeto e seu suporte para versões.
Resumo:
Neste trabalho, além de investigarmos o tipo de representação mental (proposições, imagens ou modelos mentais) utilizado por estudantes de Física Geral na área de Mecânica Newtoniana, tentamos identificar possíveis modelos mentais que estes estudantes teriam sobre alguns conceitos físicos. Baseamos nosso estudo na Teoria dos Modelos Mentais de Johnson-Laird. Estudantes de nível universitário foram observados durante dois semestres com o objetivo de determinar o tipo de representação mental que eles teriam utilizado durante o curso, quando resolviam os problemas e as questões propostas nas tarefas instrucionais. Foi realizada uma entrevista no final do curso com a finalidade de encontrar elementos adicionais que nos permitissem inferir modelos mentais sobre conceitos físicos usados pelos estudantes na elaboração de suas respostas. Os resultados desta pesquisa sugerem a importância dos modelos mentais na compreensão e uso dos conceitos físicos. Parece que quanto mais “elaborados” os modelos mentais, mais facilmente os alunos poderiam compreender situações e contextos distintos daqueles trabalhados em aula.
Resumo:
Dados altimétricos do satélite TOPEX/POSEIDON obtidos durante 1993 e 1994 foram utilizados para estudar a dinâmica oceanográfica na região oeste do oceano Atlântico Sul, entre as latitudes de 15°S e 50°S e longitudes de 30°W e 65°W. Simultaneamente, dados hidrográficos (históricos e sinópticos) e imagens termais do sensor AVHRR/NOAA foram utilizados com o objetivo de proporcionar uma comparação com os resultados da altimetria. Características da topografia dinâmica superficial, da variabilidade e anomalias da topografia dinâmica são apresentadas. Imprecisões dos modelos do geóide marinho restringiram o estudo dos padrões da topografia dinâmica supercial e das correntes geostrósficas superficiais, a comprimentos de onda espaciais superiores a 2400 Km. A variabilidade temporal da topografia dinâmica demonstrou um padrão altamente energético na região da Confluência Brasil-Malvinas durante o período. Diferenças sazonais foram observadas com os maiores valores de variabilidade nos meses de inverno e primavera. As anomalias (resíduos) da topografia dinâmica foram utilizadas no estudo de fenômenos transientes, onde um vórtice foi acompanhado acompanhado ao longo do tempo, e em conjunto com imagens AVHRR/NOAA. Feições térmicas superficiais foram confrontadas com anomalias altimétricas de trajetórias específicas, contemporâneas às imagens, apresentando ótima concordância e confirmando a excelente potencialidade do uso conjunto destes dois tipos de dados. Finalmente, a técnica da topografia dinâmica composta (combinação de dados altimétricos e climatológicos) foi utilizada para reconstruir a topografia dinâmica total a partir das anomalias altimétricas, sem a contaminação das imprecisões dos modelos do geóide. O ciclo escolhido corresponde ao mesmo período de um cruzeiro hidrográfico, proporcionando uma comparação entre topografias dinâmicas (e velocidades geostróficas superficiais) estimadas pelos dois conjuntos de dados. A concordãncia entre os dois resultados foi bastante satisfatória, indicado a possibilidade de se gerar estimativas da circulação geostrófica superficial, com boa confiabilidade, apenas com dados do sátelite e dados hidrográficos climatológicos. Concluíndo, o TOPEX/POSEIDON apresenta-se como uma excelente ferramente para o estudo da dinâmica oceanográfica no Atlântico Sul, proporcionando uma análise quasi-sinóptica de qualidade e, principalmente, aumentando o conhecimento desta região.
Resumo:
Este trabalho discute a aplicação de modelos de Pesquisa Operacional como base para o gerenciamento de operações e análise de tecnologias em empresa de transporte de carga. Inicialmente, busca-se contextualizar o escopo deste trabalho dentro do ambiente competitivo atual a fim de que sejam percebidas as conexões entre os sistemas de operações vigentes e os modelos apresentados. Também é feita uma discussão preliminar do conceito de logística, visto que este enseja uma série de acepções para o termo. Em seguida é apresentada uma revisão de algumas ferramentas de modelagem que usualmente são aplicadas a problemas de suprimento, distribuição e transbordo de produtos. Com base nesta revisão é proposta uma abordagem hierarquizada para o tratamento de problemas de logística. Um estudo de caso realizado em uma empresa de transporte de carga busca então aplicar algumas ferramentas de Pesquisa Operacional nos diversos níveis de gerenciamento de operações. Por fim, o trabalho verifica as potencialidades do uso de uma abordagem hierarquizada e a importância da adoção de modelos em empresas de transporte de carga como forma de alavancagem da sua competividade frente as novas exigências do mercado.
Resumo:
O Rio Grande do Sul possui seis regiões vitícolas, sendo a denominada “Serra Gaúcha” a maior região vitícola brasileira. Os índices bioclimáticos, bem como os modelos existentes para estimativas da fenologia e do rendimento qualitativo da videira foram estabelecidos para regiões vitícolas de diversos países, com clima distinto do encontrado nas regiões vitivinícolas do Rio Grande do Sul, sendo necessário verificar a sua eficácia nestas condições. Por esse motivo, estudos no sentido de estabelecer o comportamento da cultura frente às condições do ambiente, em especial o clima, são necessários para o planejamento do seu cultivo. Os objetivos deste estudo foram caracterizar a fenologia das principais cultivares, estabelecer modelos para a estimativa das fases fenológicas e determinar relações entre variáveis meteorológicas e o rendimento qualitativo para a videira da “Serra Gaúcha”. Para isso, foram utilizados dados fenológicos e de qualidade do mosto, nos ciclos vegetativos de 1984 a 1994 e dados meteorológicos e do teor de açúcar do mosto da cv. Cabernet Franc de 1961 a 2000 Os resultados fenológicos permitiram classificar as videiras, quanto à época de brotação, em precoces, médias e tardias e, quanto à maturação, como de primeira, segunda e terceira época. A data da brotação foi estimada com duas a três semanas de antecedência. Foi possível prever as datas da floração, mudança de cor das bagas e colheita, a partir da data da brotação, com desvio padrão médio de 2, 3 e 5 dias, respectivamente. A duração do brilho solar, a deficiência hídrica e o quociente heliopluviométrico foram positivamente correlacionados com a qualidade da uva, enquanto que a precipitação pluvial e o excesso hídrico apresentaram efeito contrário. A melhor estimativa do teor de açúcar da uva Cabernet Franc foi obtida com a duração do brilho solar e a precipitação pluvial ou duração do brilho solar e deficiência hídrica dos meses de dezembro a fevereiro.
Resumo:
Este trabalho apresenta uma metodologia para a geração automática de ASICs, em VHDL, a partir da linguagem de entrada Java. Como linguagem de especificação adotou-se a Linguagem Java por esta possuir características desejáveis para especificação a nível de sistema, como: orientação a objetos, portabilidade e segurança. O sistema é especificamente projetado para suportar síntese de ASICs a partir dos modelos de computação Máquina de Estados Finita e Pipeline. Neste trabalho, adotou-se estes modelos de computação por serem mais usados em sistemas embarcados As principais características exploradas são a disponibilização da geração de ASICs para a ferramenta SASHIMI, o alto nível de abstração com que o projetista pode contar em seu projeto, as otimizações de escalonamento realizadas automaticamente, e o sistema ser capaz de abstrair diferentes modelos de computação para uma descrição em VHDL. Portanto, o ambiente permite a redução do tempo de projeto e, consequentemente, dos custos agregados, diminuindo a probabilidade de erros na elaboração do projeto, portabilidade e reuso de código – através da orientação a objetos de Java – podendo-se proteger os investimentos prévios em desenvolvimento de software. A validação desses conceitos foi realizada mediante estudos de casos, utilizando-se algumas aplicações e analisando os resultados obtidos com a geração dos ASICs.
Resumo:
A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.
Resumo:
o objetivo desta tese é apresentar dois modelos distintos para representar as fissuras em peças de concreto armado: um do tipo distribuído e outro do tipo incorporado. Os modelos de fissura incorporada se baseiam no conceito de descontinuidades incorporadas dentro do campo de deslocamento do elemento finito padrão. Já nos modelos de fissura distribuída a descontinuidade do campo de deslocamentos causada pela fissura é espalhada ao longo do elemento. O modelo distribuído proposto apresenta um diagrama tensão-deformação multilinear e sua calibragem é feita, segundo o Código Modelo CEB-FIP 1990, através de ensaios de tirantes de concreto armado. O modelo incorporado implementado é baseado no modelo de Dvorlcin, CuiMo e Gioia, o qual não inclui a contribuição da armadura no equilíbrio interno de forças do elemento. A inclusão da parcela da armadura é feita através de um modelo de transferência de tensão por aderência, conforme Russo, Zingone e Romano, Russo e Romano e FIE - Bulletin 10. Para representar o comportamento do concreto intacto, utiliza-se o modelo constitutivo de Ottosen. Trata-se de um modelo elástico não-linear, tridimensional, que utiliza valores secantes dos parâmetros do material. Já para simular o comportamento das barras de aço da armadura, emprega-se o modelo incorporado desenvolvido por Elwi e Hrudey. Neste modelo, permite-se uma disposição arbitrária das barras de aço no interior dos elementos de concreto. O modelo constitutivo adotado para a armadura é do tipo elasto-plástico com endurecimento. Por fim, alguns exemplos numéricos são analisados com o objetivo de comprovar a eficácia dos dois modelos propostos.
Resumo:
Apomorfina é um potente agonista dopaminérgico D1/D2, utilizada no tratamento da Doença de Parkinson. Em maio de 2001, apomorfina HCl foi aprovada para utilização no tratamento da disfunção erétil, aumentando o número de usuários potenciais deste fármaco. Estudos sugerem que apomorfina e outros agonistas dopaminérgicos podem induzir neurotoxicidade mediada por seus derivados de oxidação semiquinonas e quinonas, os quais levam à formação de espécies reativas de oxigênio. Os objetivos do presente estudo foram de avaliar os possíveis efeitos genotóxicos, antimutagênicos, citotóxicos de apomorfina (APO) e de um produto derivado de sua oxidação, 8-oxo-apomorfina-semiquinona (8-OASQ), utilizando o teste Salmonella/microssoma, Mutoxiteste WP2, ensaio Cometa e teste de sensibilidade em Saccharomyces cerevisiae. Em adição, foram avaliados os efeitos de APO e 8-OASQ sobre a memória e o comportamento em ratos (tarefa de esquiva inibitória, comportamento e habituação ao campo aberto) e o comportamento estereotipado em camundongos. Ambos compostos induziram mutações por erro no quadro de leitura em linhagens de S. typhimurium TA97 e TA98, sendo que 8-OASQ foi cerca de duas vezes mais mutagênico que APO, na ausência de S9 mix. Para linhagens que detectam mutágenos oxidantes, 8-OASQ foi mutagênico, enquanto APO foi antimutagênico, inibindo a mutagenicidade induzida por H2O2 e t-BOOH em linhagens de S. typhimurium e derivadas WP2 de E. coli. O S9 mix inibiu todos os efeitos mutagênicos, provavelmente retardando a oxidação de APO ou devido à conjugação de APO e seus produtos de autoxidação, como 8-OASQ, a proteínas do S9. Em testes de sensibilidade com S. cerevisiae, APO foi citotóxica para algumas linhagens apenas nas doses mais altas. Para 8-OASQ este efeito foi dose-depende para todas as linhagens, sendo que as mutantes deficientes em catalase (ctt1), superóxido dismutase (sod1) e yap1 foram as mais sensíveis. APO protegeu as linhagens de S. cerevisiae contra danos oxidativos induzidos por concentrações altas de H2O2 e t-BOOH, enquanto que 8-OASQ aumentou os efeitos pró-oxidantes e induziu respostas adaptativas para aqueles agentes. APO e 8-OASQ induziram efeitos de prejuízo na memória de curta e de longa duração em uma tarefa de esquiva inibitória em ratos. APO, mas não 8-OASQ, prejudicou a habituação a um novo ambiente de forma dose-dependente. Os efeitos de prejuízo de memória não foram atribuídos à redução da nocicepção ou outra alteração inespecífica de comportamento, visto que nem APO e nem 8-OASQ afetaram a reatividade ao choque nas patas e comportamento durante a exploração ao campo aberto. Os resultados sugerem, portanto, que os produtos de oxidação de dopamina ou de agonistas dopaminérgicos podem induzir deficiências cognitivas.APO, mas não 8-OASQ, induziu comportamento estereotipado em camundongos machos CF-1. A falta da indução deste comportamento por 8-OASQ sugere que a autoxidação de APO causa a perda na sua habilidade de ligar-se a receptores dopaminérgicos. Pelo ensaio Cometa, 8-OASQ provocou danos ao DNA do tecido cerebral de camundongos sacrificados 1 h e 3 h, mas não 24 h após sua administração, enquanto que APO induziu um fraco aumento da freqüência de dano ao DNA 3 h após o tratamento. Esses resultados sugerem que ambos APO e 8-OASQ desempenham uma atividade genotóxica no tecido cerebral.
Resumo:
The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.
Resumo:
Estudamos neste trabalho, o nível de significância empírico dos testes portmanteau baseados nas estatísticas propostas por Ljung e Box (1978), Monti (1994) e Pe˜na e Rodríguez (2002) nos processos ARFIMA(p; d; q). Consideramos o processo ARFIMA(p; d; q) nas situações adequadas para representar séries temporais com características de longa dependência. Para estimar o parâmetro de diferenciação d utilizamos os métodos de estimação propostos por Geweke e Porter-Hudak (1983), Reisen (1994), Robinson (1994) e Fox e Taqqu (1983).
Resumo:
Este estudo foi desenvolvido dentro do projeto de pesquisa “Micrometeorologia da Mata Atlântica alagoana (MICROMA)” do Departamento de Meteorologia da Universidade Federal de Alagoas, que busca avaliar modificações no sistema solo-planta-atmosfera provocadas pela substituição da Mata Atlântica pela cultura da cana-de-açúcar, na Zona da Mata alagoana. O objetivo principal do presente estudo foi o ajuste do modelo de Penman-Monteith para o cálculo da evapotranspiração da cultura da cana-de-açúcar, na zona canavieira de Alagoas, a partir de determinações micrometeorológicas pelo método do balanço de energia, em diferentes estádios de desenvolvimento da cultura e em diferentes condições de demanda evaporativa atmosférica. A evapotranspiração foi estimada pelo método de Penman-Monteith e comparada com valores calculados através do balanço de energia, pela razão de Bowen, considerando este como método padrão. Medições micrometeorológicas foram feitas nos anos agrícolas de 1997/98 e 1998/99, em um área de 12,5ha de cultivo contínuo de cana-deaçúcar, cultivar SP 70-1143, sob condições de lavoura comercial, na Fazenda Vila Nova, município de Pilar, Alagoas (9o36´S, 35o53´W, 107m de altitude). Durante o período experimental, foram tomadas amostras quinzenais para determinar altura do dossel, comprimento de colmo, índice de área foliar e acúmulo de matéria seca (este apenas em 1998/99). Os parâmetros aerodinâmicos da cultura zo (comprimento de rugosidade) e d (deslocamento do plano zero) foram determinados a partir de perfis de vento, em condições de atmosfera neutra, e relacionados com a altura do dossel. Foram ajustados modelos para estimar o índice de área foliar e a altura do dossel da cultura em função do comprimento do colmo. O fracionamento do saldo de radiação no chamado “período potencial”, sem deficiência hídrica e com a cultura cobrindo completamente o solo, foi de 78% para o fluxo de calor latente de evaporação, 21% para o fluxo de calor sensível na atmosfera e aproximadamente 0,1% para o luxo de calor no solo. A estimativas pelo método de Penman-Monteith se ajustaram ao valores calculados pelo método do balanço de energia, tanto para médias qüinqüidiais (r = 0,93) como para valores diários (r = 0,91). Assim, dados confiáveis de evapotranspiração da cultura de cana-de-açúcar podem ser obtidos pelo método de Penman-Monteith ajustado neste trabalho, para a zona canavieira de Alagoas, em períodos sem deficiência hídrica e com cobertura completa do solo. O uso deste método apresenta a vantagem prática de requerer apenas dados meteorológicos, medidos em apenas um nível, em estações meteorológicas convencionais.
Resumo:
A distribuição de recursos públicos de modo equilibrado e bem aplicado é questão de suma importância para administradores públicos e planejadores, especialmente em países como o Brasil que, a cada ano, vê sua capacidade de investimento mais reduzida e onde mais se acentuam os desníveis sociais. A metodologia, aqui empregada, busca incorporar ao modelo a característica de dinamismo própria da realidade regional e por isso permite grande abertura na fase de seleção de variáveis, tratamento dos dados e cálculos de correlações. Descarta de saída a possibilidade de ser resposta única para a questão da regionalização, e sobretudo, visa ser um modelo heurístico que se realimenta via interações, permitindo inúmeras soluções, tanto melhores, quanto mais forem as tentativas de otimização do método. Este trabalho trata da questão da regionalização sob a ótica do estabelecimento de similaridades através de uma análise centrada nos dados sócio-econômicos que guardam melhor correlação com a estrutura espacial, utilizando a técnica de análise de agrupamentos e estatística multivariada, com o fim de facilitar o planejamento regional e munir os administradores públicos com instrumentos de decisão para uma distribuição melhor dimensionada de recursos. O tratamento dos dados se desenvolve a partir de matrizes que relacionam cada objeto unitário com todos os demais, neste caso, cada unidade municipal do estado do Rio Grande do Sul com todos os demais municípios. Utiliza-se o cálculo de variadas formas de distâncias euclidianas e não euclidianas para estabelecer a similaridade entre os objetos, o que é medido através do Teste de Mantel que relaciona as matrizes de dados com a matriz de distância. Posteriormente, via uso de técnicas de análise de agrupamento obtém-se os padrões regionais atrelados à estrutura espacial. As regionalizações geradas pelo método têm a vantagem de apresentarem-se em vários níveis hierárquicos, direcionando-se para uma maior diferenciação à medida que os níveis se aprofundam. Permitem uma visualização dos resultados em qualquer um dos níveis de diferenciação, o que proporciona ampla gama de possibilidades comparativas. Possuem um bom grau de isenção técnica, porque são o resultado de uma análise cujos principais referenciais são de domínio coletivo e definidores do espaço, em que pese o índice de correlação entre as matrizes de distâncias ter sido baixo, para esta partida de dados selecionada e aplicada ao estado do Rio Grande do Sul.
Resumo:
Este trabalho aborda uma intervenção ergonômica baseada em princípios da macroergonomia, de caráter participativo, realizada nos postos de trabalho dos caixas do Banco do Estado do Rio Grande do Sul S. A. - Banrisul. A demanda deveu-se à alta incidência de patologias ocupacionais, LERlDORT (Lesões por Esforços Repetitivos /Doenças Osteomusculares relacionadas ao Trabalho), em escriturários do banco (caixas). Utilizando os mesmos instrumentos de pesquisa, foi avaliado o grau de satisfação dos empregados em relação à organização do trabalho, saúde, ambiente laboral e mobiliário, antes e após a intervenção realizada nos setores de caixa. Os resultados demonstraram que a metodologia Análise Macroergonômica do Trabalho (AMT) utilizada foi adequada, pois inova ao identificar e quantificar também fatores subjetivos que, muitas vezes, permanecem restritos aos próprios trabalhadores, pois provêm de suas vivências e experiências pessoais ou de grupo.