73 resultados para Tempo (Filosofia)
Resumo:
Teorias de calibre formuladas em um espaço-tempo não cumulativo têm sido intensamente estudadas nos últimos anos. O interesse nesse assunto possui motivações provenientes da teoria de cordas. Uma das propriedades mais notáveis das teorias das não-cumulativas consiste de uma estrutura não usual de divergências,a chamada mistura UV/IR, que pode levar ao aparecimento de divergências infravermelhas não integráveis. A eliminação de tais divergências é crucial já que elas podem provocar o colapso da série pertubativa. Modelos não- cumulativos supersimétricos tem um lugar proeminente entre as teorias de campo fisicamente interessantes, uma vez que a supersimetria favorece o cancelamento das divergências perigosas. Eles são os melhores candidatos num programa para definir teorias de campo não-cumulativas consistentes. Neste trabalho investigamos a QED e Yang-Mills não-cumulativos supersimétricos em três dimensões usando o formalismo de supercampos. Para o caso abeliano provamos que a mistura UV/IR não é fonte de divergências infravermelhas não integráveis. Além disso, o modelo resulta ser finito na aproximação de um laço. O mesmo se aplica ao caso abeliano porém apenas na representação fundamental do grupo de calibre.
Resumo:
A utilização de versões permite o armazenamento de diferentes alternativas de projeto no desenvolvimento de uma aplicação. Entretanto, nem todo o histórico das alterações aplicadas sobre os dados é registrado. Modificações importantes podem ser realizadas e os valores anteriores são perdidos. O histórico completo somente é acessível através da junção de versões com um modelo temporal. Os conceitos de tempo e de versão aplicados em conjunto possibilitam a modelagem de aplicações complexas. Uma extensão que implemente simultaneamente estes dois conceitos em um banco de dados comercial não está disponível. O Modelo Temporal de Versões (TVM – Temporal Version Model) fornece a base para esta funcionalidade. O objetivo deste trabalho é projetar um extender para oferecer suporte aos conceitos de tempo e versão no sistema DB2, utilizando como base o TVM. A extensão engloba o mapeamento da hierarquia do TVM; a criação de tabelas administrativas; procedimentos para especificação das classes, atributos e relacionamentos; a definição de gatilhos e restrições para a manipulação dos dados diretamente nas tabelas criadas; e a especificação de procedimentos e UDFs para controle de versões e valores temporais e de outras UDFs que permitem consultas envolvendo os dois conceitos. Apesar do SGBD não ser totalmente orientado a objetos, como é definido no modelo utilizado (TVM), oferece mecanismos que permitem o mapeamento para um modelo objetorelacional. Através da utilização desta extensão, a união de tempo e de versões pode ser utilizada em aplicações reais.
Resumo:
Este trabalho aborda o desenvolvimento de uma arquitetura de controle em tempo real para servoposicionadores pneumáticos, baseada em computadores pessoais (PCs). Os servoposicionadores pneumáticos são de baixo custo, leves, não poluentes e de fácil utilização. Como apresentam boa relação entre peso e força, são bastante atraentes em aplicações de robótica. Entretanto, devido a suas não linearidades, os servoposicionadores pneumáticos apresentam dificuldades em seu controle. Visando compensá-las, são desenvolvidos algoritmos de controle cada vez mais complexos, necessitando de ferramentas mais robustas quanto ao poder de processamento. Ferramentas com características necessárias para o desenvolvimento de algoritmos e para o controle em tempo real de sistemas custam caro, o que dificulta o desenvolvimento de novas tecnologias de controle de servoposicionadores pneumáticos. Este trabalho apresenta uma revisão das soluções utilizadas na construção de sistemas pneumáticos de posicionamento e daquelas adotadas no controle digital de sistemas automáticos. Descrevese o processo de construção de uma bancada experimental, e o desenvolvimento das soluções em hardware e software para o controle digital é discutido. Visando uma solução economicamente atraente, são utilizados unicamente softwares de código aberto e de livre utilização, assim como hardwares de baixo custo.Para verificar a eficiência da solução proposta, a arquitetura de controle é utilizada para realizar a identificação dos parâmetros do sistema pneumático. Dentre eles, destacam-se a vazão mássica e o atrito, informações importantes para simulação e controle do sistema. Também são utilizados controladores do tipo Proporcional-Integral-Derivativo, implementados para apoiar o estudo do desempenho da arquitetura no controle do servoposicionador pneumático.
Resumo:
Apesar das vantagens das funcionalidades de banco de dados temporais, já amplamente demonstradas na literatura, ainda não existe, comercialmente, um SGBD totalmente temporal. Algumas propostas já foram feitas, embora um pouco discretas, dando ênfase em apenas parte das funcionalidades temporais, já sinalizando que em breve será possível existir um SGBD puramente temporal. Uma dessas propostas se constitui na implementação de uma camada de software que simula um banco de dados temporal, chamada Pacote de Tempo de Validade – PTV. Ela foi desenvolvida para demonstrar algumas funções temporais de banco de dados de tempo de validade. Embora o PTV tenha funções para garantir a integridade de dados temporais na inserção de tuplas, além de outros controles, não apresenta funções de consultas temporais. Essas funções foram desenvolvidas neste trabalho com base no TSQL2, aumentando, portanto, as funcionalidades temporais do PTV. Elas foram desenvolvidas para o SGBD Oracle 9i e consistem da principal proposta desse trabalho, permitindo inclusive validar as funções de consultas temporais de outras propostas da literatura. A segunda proposta desse trabalho é prover aos desenvolvedores e pesquisadores dessa área, uma interface visual apropriada para o uso do PTV, permitindo, assim, a exploração máxima dos recursos temporais desse pacote.
Resumo:
Os sistemas operacionais de tempo real, assim como os sistemas embarcados, estão inseridos no desenvolvimento de projetos de automação industrial segmentado em diversas áreas de pesquisa como, por exemplo, robótica, telecomunicações, e barramentos industriais. As aplicações de sistemas modernos de controle e automação necessitam de alta confiabilidade, velocidade de comunicação, além de, determinismo temporal. Sistemas operacionais de tempo real (SOTR) têm-se apresentado como uma solução confiável quando aplicadas em sistemas que se fundamentam no cumprimento de requisitos temporais. Além disso, o desempenho computacional é totalmente dependente da capacidade operacional da unidade de processamento. Em um sistema monoprocessado, parte da capacidade computacional da unidade de processamento é utilizada em atividades administrativas, como por exemplo, processos de chaveamento e salvamento de contexto. Em decorrência disto, surge a sobrecarga computacional como fator preponderante para o desempenho do sistema. Este trabalho tem por objetivo, analisar e fornecer uma arquitetura alternativa para realizar o co-processamento de tarefas em uma plataforma IBM-PC, aumentando a capacidade computacional do microprocessador principal. No presente trabalho, a plataforma de coprocessamento realiza a execução do algoritmo de escalonamento do sistema operacional, desta forma distribuiu-se o gerenciamento temporal das tarefas entre a plataforma IBM-PC e a unidade de co-processamento.
Resumo:
A doença de Marek (MD), causada por um alfaherpesvírus, é uma enfermidade linfoproliferativa que acomete principalmente galinhas. Como não existe tratamento, a melhor forma de prevenção e controle da MD é através do uso de vacinas atenuadas, que vêm sendo usadas desde 1970. Este trabalho descreve a análise de vacinas vivas congeladas contra o sorotipo 3 do vírus da doença de Marek (herpesvírus de peru – HVT) por PCR em tempo real (qPCR) e por cultivo em células de embrião de galinha. Foram avaliadas três vacinas (cepa FC126) provenientes de distintos fabricantes. As análises da homogeneidade inter e intra-lote apresentaram, respectivamente, média ± desvio padrão de 2,6 ± 1,7%, 2,1 ± 1,1% e 1,2 ± 0,1% e média ± desvio padrão de 1,5 ± 0,1%, 1,2 ± 0,8% e 1,0 ± 0,3% para A, B e C, respectivamente. A qPCR subestimou os títulos das vacinas concentradas 4x e superestimou os títulos das vacinas diluídas 8x, enquanto o cultivo celular superestimou os títulos das vacinas concentradas. As vacinas apresentaram quantidades diferentes de células/dose e unidade formadoras de placa/dose. Conseqüentemente, a relação PFU/célula também foi diferente, o que demonstra a necessidade de construção de curvas diferentes, para cada fabricante, para a titulação por qPCR.
Resumo:
Com o intuito de utilizar uma rede com protocolo IP para a implementação de malhas fechadas de controle, este trabalho propõe-se a realizar um estudo da operação de um sistema de controle dinâmico distribuído, comparando-o com a operação de um sistema de controle local convencional. Em geral, a decisão de projetar uma arquitetura de controle distribuído é feita baseada na simplicidade, na redução dos custos e confiabilidade; portanto, um diferencial bastante importante é a utilização da rede IP. O objetivo de uma rede de controle não é transmitir dados digitais, mas dados analógicos amostrados. Assim, métricas usuais em redes de computadores, como quantidade de dados e taxa de transferências, tornam-se secundárias em uma rede de controle. São propostas técnicas para tratar os pacotes que sofrem atrasos e recuperar o desempenho do sistema de controle através da rede IP. A chave para este método é realizar a estimação do conteúdo dos pacotes que sofrem atrasos com base no modelo dinâmico do sistema, mantendo o sistema com um nível adequado de desempenho. O sistema considerado é o controle de um manipulador antropomórfico com dois braços e uma cabeça de visão estéreo totalizando 18 juntas. Os resultados obtidos mostram que se pode recuperar boa parte do desempenho do sistema.
Resumo:
Este trabalho apresenta um conjunto de ferramentas que exploram as capacidades recentes das placas gráficas de computadores pessoais para prover a visualização e a interação com volumes de dados. O objetivo é oferecer ao usuário ferramentas que permitam a remoção interativa de partes não relevantes do volume. Assim, o usuário é capaz de selecionar um volume de interesse, o que pode tanto facilitar a compreensão da sua estrutura quanto a sua relação com os volumes circundantes. A técnica de visualização direta de volumes através do mapeamento de texturas é explorada para desenvolver estas ferramentas. O controle programável dos cálculos realizados pelo hardware gráfico para gerar a aparência de cada pixel na tela é usado para resolver a visibilidade de cada ponto do volume em tempo real. As ferramentas propostas permitem a modificação da visibilidade de cada ponto dentro do hardware gráfico, estendendo o benefício da visualização acelerada por hardware. Três ferramentas de interação são propostas: uma ferramenta de recorte planar que permite a seleção de um volume de interesse convexo; uma ferramenta do tipo “borracha”, para eliminar partes não relevantes da imagem; e uma ferramenta do tipo “escavadeira”, para remover camadas do volume Estas ferramentas exploram partes distintas do fluxo de visualização por texturas, onde é possível tomar a decisão sobre a visibilidade de cada ponto do volume. Cada ferramenta vem para resolver uma deficiência da ferramenta anterior. Com o recorte planar, o usuário aproxima grosseiramente o volume de interesse; com a borracha, ele refina o volume selecionado que, finalmente, é terminado com a escavadeira. Para aplicar as ferramentas propostas ao volume visualizado, são usadas técnicas de interação conhecidas, comuns nos sistemas de visualização 2D. Isto permite minimizar os esforços do usuário no treinamento do uso das ferramentas. Finalmente, são ilustradas as aplicações potenciais das ferramentas propostas para o estudo da anatomia do fígado humano. Nestas aplicações foi possível identificar algumas necessidades do usuário na visualização interativa de conjuntos de dados médicos. A partir destas observações, são propostas também novas ferramentas de interação, baseadas em modificações nas ferramentas propostas.
Resumo:
Freqüentemente tem-se presenciado a ocorrência e divulgação de acidentes graves na mídia, mostrando que o homem não domina plenamente as técnicas de prevenção dos mesmos. Dentro da linha prevencionista, este trabalho analisa os benefícios obtidos com a implementação de novas técnicas e investimentos, realizados na Refinaria Alberto Pasqualini – REFAP S.A. – na área de gestão dos riscos. Busca-se analisar os indicadores de desempenho e as melhorias oriundas da nova filosofia de prevenção de acidentes pessoais, materiais e ambientais, de forma a consolidar os benefícios obtidos com estas ações. Verificase que, com a utilização das novas técnicas, ocorreu uma redução expressiva do número de acidentes e, conseqüentemente, uma melhoria dos indicadores de segurança relativos as taxas de freqüência dos mesmos. Além disso, verifica-se a melhoria contínua dos indicadores preventivos de segurança e meio ambiente como o Indicador de Atos Seguros e o Indicador Proativo. No que se refere exclusivamente aos indicadores ambientais verifica-se melhorias no indicador de disposição de resíduos e na redução das emissões atmosféricas de produtos sulfurados e, finalmente, investimentos pesados em hardware para eliminar a amônia presente no efluente hídrico. Outro grande avanço da nova metodologia de gestão baseada no comportamento humano é a mudança na conscientização dos trabalhadores observada durante as auditorias comportamentais e a percepção positiva dos mesmos, apontada na pesquisa de Clima Organizacional, quanto a importância da segurança e da preservação do meio ambiente. O estudo de caso analisou o período entre os anos de 1998 e 2003, o qual pode ser dividido em dois períodos distintos: um período inicial (entre 1998 e 2000) com uma filosofia própria da empresa e um posterior (entre 2001 e 2003) com a implementação da filosofia de gestão dos riscos baseada no comportamento humano da consultoria da DUPONT e outros programas implementados, tais como as certificações da ISO-14001 e OHSAS-18001. O resultado observado, até o momento, foi bastante positivo e promissor, devendo ser monitorado por um período mais longo para consolidar plenamente a nova filosofia.
Resumo:
Passiflora é um gênero neotropical que apresenta uma grande variabilidade floral e foliar, o que dificulta enormemente sua classificação taxonômica. A característica mais marcante do gênero é a corona de filamentos em suas flores. Para melhor entender a taxonomia de Passiflora, foram analisadas sete regiões de seu DNA, englobando os genomas plastidial, mitocondrial e nuclear de 104 espécies. Essas espécies incluem 19 dos 23 subgêneros da classificação morfológica antiga e todos os quatro subgêneros da classificação mais recente, também baseada em caracteres externos. Os resultados corroboraram a proposta mais recente, que divide o gênero em quatro subgêneros (Astrophea, Decaloba, Deidamioides e Passiflora), com a adição de mais um, Tryphostemmatoides. Os três subgêneros com o número de espécies mais representativo (Astrophea, Decaloba e Passiflora) formam grupos monofiléticos estatisticamente bem fundamentados. No entanto, Deidamioides não é monofilético em todas as análises e marcadores, enquanto que Tryphostemmatoides é representado por apenas uma espécie. Foram também estudadas as prováveis datas de surgimento de Passiflora e sua diversificação nos três principais subgêneros, através do estudo de quatro regiões do DNA, englobando também os três genomas, em 70 espécies. Verificou-se que o gênero Passiflora deve ter aparecido há cerca de 42 milhões de anos atrás (Ma); Decaloba parece ter sido o primeiro subgênero a se estabelecer (35 Ma), enquanto que os subgêneros Astrophea e Passiflora devem ter se diversificado há 24 Ma Estes dois subgêneros parecem ter tido uma radiação rápida em comparação a Decaloba, que possui árvores filogenéticas com comprimentos dos ramos significativamente maiores que os outros dois. As adaptações morfológicas a diferentes polinizadores devem ter sido as principais responsáveis pela radiação rápida. A herança organelar de dois subgêneros, Decaloba e Passiflora, foi investigada através de um e quatro híbridos interespecíficos, respectivamente. A herança foi estritamente materna para a mitocôndria e o cloroplasto em Decaloba, enquanto que no subgênero Passiflora ocorreu herança materna para o DNA mitocondrial e paterna para o DNA plastidial. Esses resultados reforçam os dados obtidos pela filogenia, no que se refere à diferenciação e diversificação dos subgêneros, pois há evidências de que a herança materna dos cloroplastos seja ancestral em plantas.
Resumo:
Embora há muito tempo já se tenha conhecimento da importância da recuperação de informações temporais, não existe um SGBD temporal que tenha sido desenvolvido unicamente para aplicações comerciais, que supra todas as necessidades e abranja todos os aspectos temporais necessários a estas aplicações. O SGBD da Oracle, a partir da versão 8i, possibilita a inserção de características temporais similares às de tempo de transação no BD, através de um pacote de tempo denominado Time Series Cartridge. Entretanto, em muitos casos, a utilização deste cartucho de tempo não é suficiente para que se possa implementar por completo tudo o que foi especificado na modelagem do sistema. A modelagem completa da realidade só é alcançada se forem utilizadas em conjunto as características de tempo de transação e de tempo de validade no banco de dados. Neste trabalho são sugeridos e implementados mecanismos para a inserção e o gerenciamento do tempo de validade no SGBD Oracle. O tempo de validade é administrado através da execução de funções, procedimentos, gatilhos e objetos, organizados em forma de um pacote, de maneira que este possa ser utilizado em conjunto com o Time Series Cartridge.
Resumo:
A relação com a teoria das cordas renovou o interesse nas teorias quânticas de campo formuladas num espaço-tempo não-comutativo. O principal aspecto dessas teorias é o assim chamado "mecanismo UV/IR", segundo o qual divergências ultravioletas são parcialmente convertidas em infravermelhas. Para certos modelos, estas singularidades infravermelhas originadas do mecanismo UV/IR podem inviabilizar a solução perturbativa da teoria de campos. A questão principal, portanto, é encontrar teorias que sejam consistentes quando formuladas num espaço-tempo não-comutativo, sendo os modelos supersimétricos particularmente promissores neste sentido. Neste trabalho, examinamos as teorias de calibre supersimétricas Abelianas (NCSQED) e não-Abelianas com grupo de calibre U(N) (NCSYM) formuladas num espaço-tempo não-comutativo de quatro dimensões. Emambos os casos, calculamos as funções de vértice utilizando o formalismo covariante de supercampos que é tornado completamente operacional. Consideramos tanto as teorias N = 1 quanto as com supersimetria estendida. Mostramos rigorosamente que, a um laço da teoria de perturbações, estes modelos são livres de singularidades infravermelhas UV/IR não-integráveis. Para a função de dois pontos da NCSQED esta afirmação vale em qualquer calibre, ao passo que, para a função de três pontos, as singularidades infravermelhas UV/IR perigosas se anulam num calibre particular. Já para a NCSYM, demonstramos que as correções quânticas às funções de vértice de dois e três pontos não apresentam os efeitos indesejáveis do mecanismo UV/IR graças a certas relações envolvendo traços dos geradores do grupo de calibre que, surpreendentemente, são satisfeitas apenas na representação fundamental do grupoU (N). Como esperado, a função de dois pontos é também finita na teoria N = 4.
Resumo:
O pó de aciaria elétrica (PAE) é um resíduo sólido gerado na coleta do material particulado no processo de fabricação do aço em forno elétrico a arco. A classificação segundo norma NBR 10004 para o mesmo é classe I – Perigoso, porque apresenta metais pesados (chumbo e cádmio) em sua constituição, que lixiviam em água excedendo os limites máximos estabelecidos por esta norma. Os elementos ferro e zinco são os constituintes majoritários presentes no PAE. O conhecimento da forma como estes elementos estão combinados é de suma importância antes do estudo de novas tecnologias para processamento do resíduo. Este trabalho teve como objetivos principais caracterizar química, física, estrutural e morfologicamente o PAE e avaliar a influência do tempo na redução carbotérmica deste resíduo. Na etapa de caracterização do PAE as seguintes técnicas foram utilizadas: análise granulométrica, análise química, microscopia eletrônica de varredura (MEV), análise por dispersão de energia (EDS), análise digitalizada de mapeamento de raios-x, difração de raios-x (DRX) e espectroscopia Mössbauer. Os experimentos de redução foram realizados em forno mufla na temperatura de 1050°C, em três tempos de redução: 15, 30 e 60 minutos. O agente redutor utilizado foi um carvão gaúcho, proveniente da mina de Faxinal, beneficiado e contendo 17% de cinza. A quantidade de carbono utilizada nos experimentos foi de 50% em excesso em relação a quantidade estequiométrica. O grau de metalização do ferro das amostras reduzidas foi avaliado via técnicas de análise química via-úmida e espectroscopia Mössbauer. O grau de remoção do zinco nas amostras reduzidas foi avaliado via técnica de análise química por Espectrometria de Emissão Atômica por Plasma – ICP. Através da etapa de caracterização verificou-se que o ferro e o zinco são os elementos majoritários presentes no PAE, e estão combinados na forma dos seguintes óxidos: Fe3O4, ZnFe2O4, FeCr2O4, Ca0,15Fe2,85O4 e ZnO. Nos ensaios de redução verificou-se que inicialmente ocorre a redução dos óxidos de ferro. O máximo grau de metalização obtido no tempo de 60 minutos foi em torno de 50%. A análise estatística mostrou que objetivando maximizar a variável de resposta (grau de metalização) e garantir economia o tempo de 15 minutos se mostrou o mais adequado. Para as fases com zinco, verificou-se que após a decomposição da ZnFe2O4 e tempos maiores de redução teve início a redução da ZnO. Com 60 minutos na temperatura de 1050°C o grau de remoção do zinco foi de 95%.
Resumo:
Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.