32 resultados para Operador de consequência
Resumo:
Nesta dissertação apresentamos e desenvolvemos o Método de Perron, fazendo uma aplicação ao ploblema de Dirichlet para a equação das superfícies de curvatura média constante em R3. Apresentamos também uma extensão deste método dentro de EDP's e, por fim, obtemos uma extensão geométrica que se aplica a superfícies ao invés de gráficos. Comentamos a aplicação deste método geométrico á existência de superfícies mínimas tendo como bordo duas curvas convexas em planos paralelos do R3.
Resumo:
Este trabalho apresenta um estudo da liga zinco-níquel obtida a partir de um banho ácido de cloretos, de formulação sugerida pela Boeing. A liga zinco níquel é uma proposta atual para a substituição de revestimentos de cádmio eletrodepositados, tanto na industria aeronáutica como na indústria automobilística. O interesse nesta substituição surge da necessidade de se encontrar um processo menos poluente ao meio ambiente e ao operador que aplica o revestimento, economicamente viável e que também atenda legislação ambiental, cada vez mais restritiva. As ligas zinco-níquel são de especial interesse, porque além de apresentarem as características descritas anteriormente, também conferem ao substrato ferroso, uma proteção do tipo catódico. O estudo aqui apresentado avaliou uma faixa de densidade de corrente de deposição, entre 0,5 e 5 A.dm-2 quanto aos teores de níquel das ligas formadas, a resistência a corrosão e outras características das ligas, através de curvas de polarização, voltametrias e ensaios de impedância eletroquímica e ensaios de névoa salina e outros ensaios . Especial atenção foi dada para a faixa de densidade de corrente considerada como ótima pela Boeing, entre 2 e 3 A.dm-2.
Resumo:
A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcançar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.
Resumo:
O objetivo do presente trabalho é construir recursos operatórios de leitura que permitam articular, desde um ponto de vista epistemológico, lingüística e psicanálise. Esta temática surge de uma problemática de pesquisa atual, relativa à crescente demanda, endereçada a lingüística, por diferentes práticas clínicas nas quais a linguagem está implicada. Neste sentido, procura-se relacionar um paradigma de linguagem com uma teoria da subjetividade apropriada tanto à reflexão clínica quanto à reflexão epistemológica. Desta forma, esta dissertação opta por um estudo teórico, visando a construção de operadores conceituais que possibilitem a articulação entre a psicanálise lacaniana e as teorias da linguagem de Saussure, Jakobson e Benveniste, utilizando como corpus de análise essas próprias teorias lingüísticas e psicanalíticas. Portanto, seu procedimento analítico pode ser qualificado como metateórico. Quatro critérios são utilizados para a seleção dos autores: 1°) as três teorias são, cada uma a seu modo, estruturalistas – isso significa que a estrutura é o conceito operador que permite pensar as proposições que estão na base de cada teoria (seus axiomas); 2°) as três teorias estabelecem proposições sobre o objeto língua – isso requer perguntar quais axiomas sobre a língua cada teoria teve que construir para dar conta da estrutura. Desses dois critérios deriva-se um terceiro; 3°) as três teorias conformam três “sistemas de linguagem” que não dissolvem o “objeto língua” para se constituírem em sua especificidade (diluindo-a em objetos de outros domínios teóricos, exteriores ao campo da linguagem – ou da lingüística – propriamente dito, tais como, por exemplo, a biologia, a psicologia, a sociologia). Cada sistema é representado por um nome próprio : I – Sistema de Linguagem elaborado por Saussure; II – Sistema de Linguagem tratado por Jakobson; III – Sistema de Linguagem concebido por Benveniste. Como critério de fechamento, temos que : 4°) as três teorias interessam de perto ao Sistema de Linguagem da psicanálise lacaniana. A relação entre tais teorias deverá servir de suporte de leitura à interlocução estabelecida no campo interdisciplinar sobre a presença da linguagem nas diferentes clínicas, assim como revitalizar os campos conceituais tanto da lingüística quanto da psicanálise.
Resumo:
Este trabalho visa realizar o estudo do comportamento dinâmico de um eixo rotor flexível, modelado segundo a teoria de Euler-Bernoulli e caracterizar as respostas periódicas de sistemas LTI (sistemas lineares invariantes no tempo) e sistemas fracamente não lineares de ordem arbitrária. Para tanto, é utilizada a base dinâmica gerada pela resposta impulso ou solução fundamental. O comportamento dinâmico de um eixo rotor flexível foi discutido em termos da função de Green espacial e calculada de maneira não-modal. Foi realizado um estudo do problema de autovalor para o caso de um um eixo rotor biapoiado. As freqüências são obtidas e os modos escritos em termos da base dinâmica e da velocidade de rotação. As respostas periódicas de sistemas LTI, utilizadas nas aproximações com sistemas fracamente não lineares, são obtidas, independentemente da ordem do sistema, como um operador integral onde o núcleo é a função de Green T-periódica. Esta função é caracterizada em termos das propriedades de continuidade, periodicidade e salto da função de Green T-periódica, e da base dinâmica Simulações foram realizadas para sistemas concentrados, matriciais e escalares, com o objetivo de mostrar a validade da metodologia desenvolvida com as propriedades da função de Green T-periódica. Foi abordado um modelo não-linear para uma centrífuga utilizada na indústria textil [Starzinski, 1977].
Resumo:
O novo cenário mundial, marcado pela globalização e atingindo todos os tipos de empresas nos mais variados setores, é descrito como um ambiente de competição muito acirrada, no qual as empresas precisam encontrar soluções cada vez mais rápidas, com precisão e eficiência, entregando um valor maior para seus clientes e melhores retornos para os acionistas. Nesse ambiente, a informação é um fator primordial de diferenciação, sobrevivência e prosperidade para as organizações. Fluxos de informações confiáveis devem ser desenvolvidos, a fim de contribuir para uma melhor qualidade das decisões. O operador de central de atendimento, ou atendente como é conhecido no segmento, é um infomediário e deve ser preparado e treinado para melhor desempenhar o seu papel na coleta de dados e informações. Assim, o objetivo deste trabalho é propor um fluxo que disponibilize informações precisas e confiáveis a respeito dos clientes, a partir de contatos via central de atendimento da Telet, tornando o processo decisório mais ágil e com foco do cliente. Para isso, foram realizadas entrevistas para identificar as carências e as dificuldades de informações disponibilizadas pela Central de Atendimento às áreas clientes da empresa (marketing, planejamento,engenharia e TI), e foi aplicada uma pesquisa com os atendentes, buscando entender os fatores críticos que os levam a não registrar corretamente as demandas dos clientes, bem como o entendimento de seu papel na organização. Da análise dos dados das entrevistas com especialistas das áreas clientes e dos resultados da pesquisa, estruturada e aplicada em uma amostra de atendentes, emergiu a proposta de um novo fluxo de informações que qualifique a tomada de decisão. Constatou-se que não basta apenas a central de atendimento estar preparada, treinada e capacitada, para melhor atender o cliente e coletar dados e informações dos produtos e serviços. Um fluxo de informações estruturado é fundamental para que a informação trafegue até o destino correto, apoiando a tomada de decisão, permitindo a aprendizagem e a geração do conhecimento.
Resumo:
Este trabalho tem por objetivo estudar a regularidade de soluções de Equações Diferenciais Parciais Elípticas da forma Lu = f, para f 2 Lp(), onde p > 1. Para isto, usamos a Decomposição de Calderon-Zygmund e um resultado que é consequência deste, o Teorema da Interpolação de Marcinkiewicz. Além disso, usando quocientes-diferença provamos a regularidade das soluções para o caso p = 2 e L = ¡¢ de uma forma alternativa.
Resumo:
A escrita do nome próprio tem ocupado um lugar privilegiado na aprendizagem, operador por excelência, a partir do qual podem-se realizar uma série de permutações em suas letras, emprestando-se a constituir outros nomes. Esperase que através da escrita do nome o sujeito possa demonstrar maior estabilidade em um eu que tenha domínio sobre a linguagem. A hipótese inicialmente formulada é de que na escrita do nome está em jogo a constituição subjetiva do escrevente e que as diferentes associações nas e com as letras tipográficas revelam os processos através dos quais se dá a inscrição de sujeito na linguagem. É ao sujeito da inscrição que estamos nos referindo, submetido à incidência das leis que regulam a linguagem. Podemos entreler, ler nas entrelinhas, na escrita do nome e em seus desdobramentos, impasses, omissões, trocas e rasuras, o que uma escrita não consciente – no sentido de não se sustentar numa hipótese enquanto exercício de uma reflexão – desvela sobre os processos de criação da cultura e de um sujeito, através da passagem realizada entre a transmissão de um nome próprio à apropriação de um próprio ao nome.
Resumo:
Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.
Resumo:
Vários métodos analíticos, numéricos e híbridos podem ser utilizados na solução de problemas de difusão e difusão-advecção. O objetivo deste trabalho é apresentar dois métodos analíticos para obtenção de soluções em forma fechada da equação advectivo-difusiva em coordenadas cartesianas que descreve problemas de dispersão de poluentes na água e na atmosfera. Um deles é baseado em regras de manipulação de exponenciais de operadores diferenciais, e o outro consiste na aplicação de simetrias de Lie admitidas por uma equação diferencial parcial linear. Desenvolvem-se regras para manipulação de exponenciais de operadores diferenciais de segunda ordem com coeficientes constantes e para operadores advectivo-difusivos. Nos casos em que essas regras não podem ser aplicadas utiliza-se uma formulação para a obtenção de simetrias de Lie, admitidas por uma equação diferencial, via mapeamento. Define-se um operador diferencial com a propriedade de transformar soluções analíticas de uma dada equação diferencial em novas soluções analíticas da mesma equação. Nas aplicações referentes à dispersão de poluentes na água, resolve-se a equação advectivo-difusiva bidimensional com coeficientes variáveis, realizando uma mudança de variáveis de modo a reescrevê-la em termos do potencial velocidade e da função corrente correspondentes ao respectivo escoamento potencial, estendendo a solução para domínios de contornos arbitrários Na aplicação referente ao problema de dispersão de poluentes na atmosfera, realiza-se uma mudança de variáveis de modo a obter uma equação diferencial parcial com coeficientes constantes na qual se possam aplicar as regras de manipulação de exponenciais de operadores diferenciais. Os resultados numéricos obtidos são comparados com dados disponíveis na literatura. Diversas vantagens da aplicação das formulações apresentadas podem ser citadas, a saber, o aumento da velocidade de processamento, permitindo a obtenção de solução em tempo real; a redução da quantidade de memória requerida na realização de operações necessárias para a obtenção da solução analítica; a possibilidade de dispensar a discretização do domínio em algumas situações.
Resumo:
Muitos processos de manufatura têm utilizado as tradicionais Cartas de Controle de Shewhart. Entretanto, quando as observações estão autocorrelacionadas, é necessário tratar os dados antes de realizar o controle estatístico. O tema principal deste trabalho é o Controle Estatístico de Processo (CEP) para observações autocorrelacionadas em processos de manufatura. O objetivo principal desse trabalho é consolidar um método de Controle Estatístico de Processo de manufatura que apresenta observações autocorrelacionadas. Como resultado foi obtida uma nova carta de controle. Essa carta de controle permite que as observações sejam monitoradas diretamente, no lugar do monitoramento do gráfico de resíduos, o que facilita o entendimento e o acompanhamento do processo por parte do operador. O método apresenta resultados satisfatórios, os quais são comparados com outras técnicas. Também foi realizado um levantamento de técnicas utilizadas para o tratamento de dados autocorrelacionados em CEP.
Resumo:
O objetivo do estudo foi avaliar as características da dentina cariada remanescente de molares decíduos quanto à coloração, consistência e microdureza, após um período médio de 3 anos e 8 meses da realização do capeamento pulpar indireto. O estudo clínico constou de 27 dentes que apresentavam lesões cariosas ativas com expressão radiográfica em metade interna de dentina. Aleatoriamente, foi realizado o capeamento pulpar indireto e utilizado como material capeador o hidróxido de cálcio (HC) e o cimento de ionômero de vidro resinoso modificado (CIVRM). As crianças foram acompanhadas através de exames clínicos e radiográficos, e ao longo de um período médio de 3 anos e 8 meses, observou-se um índice de sucesso de 89% para o grupo do HC e de 93% para o CIVRM, não havendo diferença estatisticamente significante entre os dois grupos (p=0,62). Os dentes considerados como sucesso no estudo clínico foram agrupados em um único grupo (grupo teste), que constou de 13 dentes que sofreram esfoliação natural ou exodontia por motivos ortodônticos. Além disso, foram selecionados 15 molares decíduos hígidos (grupo controle positivo) e 15, portadores de lesões cariosas ativas em metade interna de dentina (grupo controle negativo). As amostras do grupo teste tiveram suas respectivas restaurações removidas, a profundidade medida e a dentina remanescente avaliada por um operador calibrado, seguindo critérios descritivos, quanto à consistência e a coloração. Nos dentes do grupo controle positivo, foram realizados preparos cavitários oclusais em até 4 mm de profundidade, enquanto que, no grupo controle negativo, o mesmo operador do estudo clínico realizou a remoção parcial de tecido cariado in vitro. A partir daí, todos os dentes foram preparados para análise de microdureza, que foi realizada por um examinador calibrado, que empregou o princípio de cegamento. Na análise da consistência, todos os dentes do grupo teste (n=13) apresentaram-se endurecidos, enquanto que 9, apresentaram coloração amarela-clara (8 do CIVRM e 1 do HC) e 4, castanho-escura (1 do CIVRM e 3 do HC). Para o teste de microdureza no grupo teste, obteve-se uma média KHN de 40,81 (±16,28) MPa, enquanto que nos grupos controles positivo e negativo, foram alcançados valores médios de 62,73 (±11,24) MPa e 19,15 (±6,99) MPa, respectivamente. A análise estatística mediante o teste ANOVA indicou que houve diferença significativa entre os 3 grupos. Foi constatada a remineralização da dentina de dentes decíduos em que foi realizada a técnica do capeamento pulpar indireto após um período médio de 3 anos e 8 meses, através de critérios clínico (consistência) e laboratorial (análise da microdureza).
Resumo:
Estudamos vidros de spin de Ising de alcance infinito com campo transverso. A função de partição foi calculada no formalismo da integral funcional com operadores de spins na representação fermiônica e dentro da aproximação estática e na primeira etapa de quebra de simetria de réplicas da teoria de Parisi onde o conjunto de n réplicas é dividido em K blocos de m elementos. Obtivemos uma expressão para energia livre, entropia e energia interna para dois modelos: o modelo de quatro estados onde o operador Szi tem dois autovalores não físicos que são suprimidos por um vínculo no modelo de dois estados. A temperatura crítica em função do campo transverso, isto é, Tc(T), para ambos os modelos, diminui quando T cresce até atingir um valor crítico Tc. Fizemos também estudo numérico para os parâmetros de ordem, energia livre, entropia, energia interna e diagrama de fase com o parâmetro m fixo. Em ambos os modelos, a fase de vidros de spins é instável. Nosso trabalho difere da teoria de Parisi, onde m é dependente da temperatura. Na segunda parte da tese,analisamos vidros de spin com campo transverso na teoria de C. De Dominicis et. al. para o modelo de dois estados e o moidelo de quatro estados. Calculamos energia livre, a temperatura crítica Tc(T), determinamos o campo crítico e obtemos o diagrama de fase numericamente para ambos os modelos.
Resumo:
Este estudo faz uma reflexão da docência na escola de Educação Profissional, a partir das manifestações éticas e dos processos de identificação visibilizados nas trajetórias de vida, no estar-junto e na convivência da escola. Por meio da escuta do testemunho de vida de seis professores de Educação Profissional, bem como na relação do estar-junto na Escola Técnica Mesquita, a pesquisa contempla uma disposição em ser e estar escuta-dor da docência. Para tanto, são utilizados o Diário de Reflexões e os Relatos de Vida, através de disposições metodológicas como a empatia, a intuição, a escuta e o olhar sensível. O estudo apresenta e dá visibilidade às dimensões éticas manifestas na escola, caracterizadas na perspectiva da "outra lógica do estar-junto" (Maffesoli). Reflete sobre os processos de identificação e de a-firma-ção do ser docente, na dimensão de se compreender os múltiplos sustentáculos das emoções éticas e das pedagogias manifestas e anunciadas no testemunho da docência. Enquanto operador analítico-interpretativo, a investigação lança mão de um Baralho de Cartas na perspectiva da compreensão das diferentes e singulares formas e manifestações dos caminhos, dos des(a)tinos e da vida da docência. São apresentadas as imagens e os significados das Cartas, os lances, o jogo, suas leituras e interpretações. Nesse sentido, a escola dos destinos cruzados foi a metáfora encontrada para apresentar a vida da docência, caracterizadas pelas temáticas do ingresso na docência, dos processos de identificação, das éticas que sustentam o fazer e o conceber da docência, das desestabilizações e da negação da docência, dos processos de mobilização e a-firma-ção, bem como dos rituais do estar-junto na escola, vislumbrando um outro jeito de ver e compreender a formação de professores.O texto convida o leitor a sentar-se na mesa circular da pesquisa, juntamente com Maffesoli, Calvino, Maturana e os professores de Educação Profissional - atores e autores dos relatos de vida - para um inusitado encontro na perspectiva de se compreender a forma e o jeito que a docência se diz, se narra, se manifesta, se lembra.
Resumo:
Aplicações recentes no setor de automação industrial utilizam barramentos de campo para prover comunicação entre dispositivos. Estas aplicações normalmente exigem que os barramentos apresentem suporte tempo real. A garantia do adequado atendimento a requisitos temporais restritos é de fundamental importância para o correto funcionamento do sistema. Este documento apresenta um sistema de validação temporal para aplicações desenvolvidas utilizando tecnologias de barramentos de campo. O sistema desenvolvido, chamado BR-Tool, permite monitoração em tempo de execução de uma rede de barramento de campo, confrontando os dados obtidos com requisitos temporais previamente definidos pelo operador. O sistema BR-Tool é composto por dois elementos: um sub-sistema de aquisição de mensagens (placa de aquisição) e um sub-sistema de validação (ferramenta computacional). A placa de aquisição foi especialmente projetada para operar com diferentes interfaces de barramentos de campo, realizando as tarefas de captura de eventos, marcação temporal e salvamento de um histórico de eventos. A ferramenta de validação, que roda no computador, realiza as tarefas de filtragem de eventos, especificação de requisitos e validação temporal, permitindo diversos modos de visualização dos resultados. A comunicação entre a placa de aquisição e a ferramenta de validação é implementada por uma interface PCI, permitindo operar com velocidades de até 12Mbps.