622 resultados para Interrogativas Parciais
Resumo:
Neste trabalho são desenvolvidos métodos numéricos para inversão da transformada de Laplace, fazendo-se uso de polinômios trigonométricos e de Laguerre. Sua utilização é ilustrada num problema de fronteira móvel da área de engenharia nuclear, através do algoritmo computacional ALG-619. Uma revisão dos aspectos analíticos básicos da transformada de Laplace e sua utilização na resolução de equações diferenciais parciais é apresentada de maneira suscinta.
Resumo:
Foram estudados 24 pacientes que realizaram Psicoterapia Breve Dinâmica, no ano de 1980, no ambulatório do Centro Psiquiátrico Melanie Klein, com os alunos do 2º ano do Curso de Especialização em Psiquiatria. Procurou-se observar: a) quais foram os resultados obtidos por estes pacientes em psicoterapia; b) qual foi a qualidade da relação paciente-terapeuta; c) se houve ou não uma correlção entre os resultados e a qualidade da relação terapêutica; d) e em que grau contribuíram pacientes e terapeutas para as dificuldades encontradas. Verifico-se que, aproximadamente, 1/3 dos pacientes (29,2%), obtiveram resultados "importantes ou substanciais", com a terapia; 1/3 (33,3%), resultados "parciais", e os demais (37,5%), resultados "mínimos ou nulos". A relação paciente-terapeuta foi considerada "boa, em parte" em 25,0% e com "dificuldades importantes" em 47,1% da amostra. Foi encontrada uma correlação direta e altamente significativa entre os resultados obtidos e as seguintes variáveis : a) qualidade da relação paciente-terapeuta; b) idade dos pacientes; c) e número de sessões realizadas. Observou-se, ainda, que os pacientes tiveram uma evolução significativamente mais favorável e com menos problemas, quando os terapeutas eram do sexo oposto. E, inversamente, as dificuldades foram maiores e o aproveitamento menor quando eram ambos do mesmo sexo. Em 16,7% dos casos, as dificuldades encontradas na relação paciente-terapeuta ocorreram por problemas dos pacientes. Mas em 41,7% dos casos, foram encontradas evidências de que ocorreram dificuldades na relação, também por parte dos terapeutas.
Resumo:
Fundamentalmente, o presente trabalho faz uma análise elástica linear de pontes ou vigas curvas assimétricas de seção transversal aberta e de parede fina, com propriedades físicas, geométricas e raio de curvatura constantes ao longo do eixo baricêntrico. Para tanto, utilizaram-se as equações diferenciais de VLASOV considerando o acoplamento entre as deformações nas direções vertical, transversal, axial de torcão nal. Na solução do sistema de quatro equações com derivadas parciais foi utilizado um apropriado método numérico de integração (Diferenças Finitas Centrais). A análise divide-se, basicamente, em dois tipos: análise DINÂMICA e ESTATICA. Ambas são utilizadas também na determinação do coeficiente de impacto (C.M.D.). A primeira refere-se tanto na determinação das características dinâmicas básicas (frequências naturais e respectivos modos de vibração), como também na determinação da resposta dinâmica da viga, em tensões e deformações, para cargas móveis arbitrárias. Vigas com qualquer combinação das condições de contorno, incluindo bordos rotulados e engastados nas três direções de flexão e na torção, são consideradas. 0s resultados da análise teórica, obtidos pela aplicação de programas computacionais implementados em microcomputador (análise estática) e no computador B-6700 (análise dinâmica), são comparados tanto com os da bibliografia técnica como também com resultados experimentais, apresentando boa correlação.
Resumo:
A filtragem de imagens visando a redução do ruído é uma tarefa muito importante em processamento de imagens, e encontra diversas aplicações. Para que a filtração seja eficiente, ela deve atenuar apenas o ruído na imagem, sem afetar estruturas importantes, como as bordas. Há na literatura uma grande variedade de técnicas propostas para filçtragem de imagens com preservação de bordas, com as mais variadas abordagens, deentrte as quais podem ser citadas a convolução com máscaras, modelos probabilísticos, redes neurais, minimização de funcionais e equações diferenciais parciais. A transformada wavelet é uma ferramenta matemática que permite a decomposição de sinais e imagens em múltiplas resoluções. Essa decomposição é chamada de representação em wavelets, e pode ser calculada atrravés de um algorítmo piramidal baseado em convoluções com filtros passa-bandas e passa-baixas. Com essa transformada, as bordas podem ser calculadas em múltiplas resoluções. Além disso, como filtros passa-baixas são utilizados na decomposição, a atenuação do ruído é um processo intrínseco à transformada. Várias técnicas baseadas na transformada wavelet têm sido propostas nos últimos anos, com resultados promissores. Essas técnicas exploram várias características da transformada wavelet, tais como a magnitude de coeficientes e sua evolução ao longo das escalas. Neste trabalho, essas características da transformada wavelet são exploradas para a obtenção de novas técnicas de filtragem com preservação das bordas.
Resumo:
Este trabalho visa desenvolver um modelo físico e matemático geral para os processos de extração sólido-líquido em fluxos contracorrente cruzados (CCC) que são utilizados na indústria de alimentos. Levam-se em consideração os processos principais (o transporte de massa entre as fases, difusão e convecção) envolvidos por todo o campo de extração, com uma abordagem bidimensional evolutiva, incluindo as zonas de carregamento, drenagem e as bandejas acumuladoras. O modelo matemático é formado por equações diferenciais parciais que determinam a alteração das concentrações nas fases poro e “bulk” em todo o campo de extração e equações diferenciais ordinárias (que refletem as evoluções das concentrações médias nas bandejas). As condições de contorno estabelecem as ligações entre os fluxos CCC da micela e matéria-prima e consideram, também, a influência das zonas de drenagem e carregamento. O algoritmo de resolução utiliza o método de linhas que transforma as equações diferenciais parciais em equações diferenciais ordinárias, que são resolvidas pelo método de Runge-Kutta. Na etapa de validação do modelo foram estabelecidos os parâmetros da malha e o passo de integração, a verificação do código com a lei de conservação da espécie e um único estado estacionário. Também foram realizadas a comparação com os dados experimentais coletados no extrator real e com o método de estágios ideais, a análise da influência de propriedades da matéria-prima nas características principais do modelo, e estabelecidos os dados iniciais do regime básico (regime de operação) Foram realizadas pesquisas numéricas para determinar: os regimes estacionário e transiente, a variação da constante de equilíbrio entre as fases, a variação do número de seções, a alteração da vazão de matéria-prima nas características de um extrator industrial e, também foram realizadas as simulações comparativas para diferentes tipos de matéria-prima (flocos laminados e flocos expandidos) usados amplamente na indústria. Além dessas pesquisas, o modelo também permite simular diferentes tipos de solventes. O estudo da capacidade de produção do extrator revelou que é necessário ter cuidado com o aumento da vazão da matéria-prima, pois um pequeno aumento desta pode causar grandes perdas de óleo tornando alto o custo da produção. Mesmo que ainda seja necessário abastecer o modelo com mais dados experimentais, principalmente da matéria-prima, os resultados obtidos estão em concordância com os fenômenos físico-químicos envolvidos no processo, com a lei de conservação de espécies químicas e com os resultados experimentais.
Resumo:
Este trabalho tem como foco a aplicação de técnicas de otimização de potência no alto nível de abstração para circuitos CMOS, e em particular no nível arquitetural e de transferência de registrados (Register Transfer Leve - RTL). Diferentes arquiteturas para projetos especificos de algorítmos de filtros FIR e transformada rápida de Fourier (FFT) são implementadas e comparadas. O objetivo é estabelecer uma metodologia de projeto para baixa potência neste nível de abstração. As técnicas de redução de potência abordadas tem por obetivo a redução da atividade de chaveamento através das técnicas de exploração arquitetural e codificação de dados. Um dos métodos de baixa potência que tem sido largamente utilizado é a codificação de dados para a redução da atividade de chaveamento em barramentos. Em nosso trabalho, é investigado o processo de codificação dos sinais para a obtenção de módulos aritméticos eficientes em termos de potência que operam diretamente com esses códigos. O objetivo não consiste somente na redução da atividade de chavemanto nos barramentos de dados mas também a minimização da complexidade da lógica combinacional dos módulos. Nos algorítmos de filtros FIR e FFT, a representação dos números em complemento de 2 é a forma mais utilizada para codificação de operandos com sinal. Neste trabalho, apresenta-se uma nova arquitetura para operações com sinal que mantém a mesma regularidade um multiplicador array convencional. Essa arquitetura pode operar com números na base 2m, o que permite a redução do número de linhas de produtos parciais, tendo-se desta forma, ganhos significativos em desempenho e redução de potência. A estratégia proposta apresenta resultados significativamente melhores em relação ao estado da arte. A flexibilidade da arquitetura proposta permite a construção de multiplicadores com diferentes valores de m. Dada a natureza dos algoritmos de filtro FIR e FFT, que envolvem o produto de dados por apropriados coeficientes, procura-se explorar o ordenamento ótimo destes coeficientes nos sentido de minimizar o consumo de potência das arquiteturas implementadas.
Resumo:
A resposta impulso é utilizada como ferramenta padrão no estudo direto de sistemas concentrados, discretos e distribuídos de ordem arbitrária. Esta abordagem leva ao desenvolvimento de uma plataforma unificada para a obtenção de respostas dinâmicas. Em particular, as respostas forçadas dos sistemas são decompostas na soma de uma resposta permanente e de uma resposta livre induzida pelos valores iniciais da resposta permanente. A teoria desenvolve-se de maneira geral e direta para sistemas de n-ésima ordem, introduzindo-se a base dinâmica gerada pela resposta impulso na forma padrão e normalizada, sem utilizar-se a formulação de estado, através da qual reduz-se um sistema de ordem superior para um sistema de primeira ordem. Considerou-se sistemas de primeira ordem a fim de acompanhar-se os muitos resultados apresentados na literatura através da formulação de espaço de estado. Os métodos para o cálculo da resposta impulso foram classificados em espectrais, não espectrais e numéricos. A ênfase é dada aos métodos não espectrais, pois a resposta impulso admite uma fórmula fechada que requer o uso de três equações características do tipo algébrica, diferencial e em diferenças Realizou-se simulações numéricas onde foram apresentados modelos vibratórios clássicos e não clássicos. Os sistemas considerados foram sistemas do tipo concentrado, discreto e distribuído. Os resultados da decomposição da resposta dinâmica de sistemas concentrados diante de cargas harmônicas e não harmônicas foram apresentados em detalhe. A decomposição para o caso discreto foi desenvolvida utilizando-se os esquemas de integração numérica de Adams-Basforth, Strömer e Numerov. Para sistemas distribuídos, foi considerado o modelo de Euler-Bernoulli com força axial, sujeito a entradas oscilatórias com amplitude triangular, pulso e harmônica. As soluções permanentes foram calculadas com o uso da função de Green espacial. A resposta impulso foi aproximada com o uso do método espectral.
Resumo:
No presente trabalho, procedeu-se a preparação e caracterização de catalisadores ambientais à base de óxido de cobre suportado em -alumina (suporte)/cordierita (substrato) e que tinham como promotor o óxido de cério. A argila foi conformada via eletroforese na forma de monolitos. Após queima à 1100°C, estes foram triturados, selecionado-se partículas com diâmetro entre 0,297 < Dp < 0,590 mm. Para a obtenção de -alumina e óxidos de cério e cobre sobre as partículas, utilizou-se a técnica de impregnação a seco (umidade incipiente), usando soluções de Al(OH)3, Ce(NO)3.6H2O e Cu(NO)3.3H2O, respectivamente . Após cada impregnação, os catalisadores foram secos e calcinados. A caracterização dos catalisadores foi feita através de experimentos de TPR (Redução à Temperatura Programada), microscopia eletrônica de varredura e espectrofotometria de absorção atômica, tendo como reação teste a oxidação de propeno com excesso de oxigênio. A caracterização da argila precursora da cordierita foi realizada através da difratometria de raios X . Procurou-se determinar neste trabalho os tipos de sítios de óxido de cobre (através do ensaio de TPR) e valores de ordens de reação e energia de ativação para a reação de oxidação de propeno através de estudos de cinética aplicada, relacionando-se os resultados com valores da literatura. Os valores de energia de ativação obtidos neste trabalho, para a oxidação de propeno, variaram de 82 kJ/mol à 100 kJ/mol e as ordens parciais de reação do propeno de 0,73 à 1,11. Todos os resultados acima foram obtidos em reator diferencial . O efeito da adição de óxido de cério nestes catalisadores também foi abordado neste trabalho.
Resumo:
Nesta dissertação apresentamos e desenvolvemos o Método de Perron, fazendo uma aplicação ao ploblema de Dirichlet para a equação das superfícies de curvatura média constante em R3. Apresentamos também uma extensão deste método dentro de EDP's e, por fim, obtemos uma extensão geométrica que se aplica a superfícies ao invés de gráficos. Comentamos a aplicação deste método geométrico á existência de superfícies mínimas tendo como bordo duas curvas convexas em planos paralelos do R3.
Resumo:
A produção de soja é uma das principais atividades econômicas na Região Noroeste do Estado do Rio Grande do Sul. As perdas de produto em condições de comercialização ocasionadas nas atividades de secagem e armazenamento são significativas, justificando a pesquisa e aprimoramento destes processos. Nesta tese foram pesquisados dois problemas: 1. Modelamento matemático dos processos de secagem, utilizando parâmetros conhecidos de soja e 2. Modelamento matemático do problema de aeração para o cálculo da distribuição da pressão e da velocidade do ar na massa de grãos em unidades de armazenamento de soja. No problema de secagem foi desenvolvido um sistema composto de quatro equações diferenciais parciais hiperbólicas acopladas não-lineares, que descreve o comportamento da temperatura e do teor de umidade do ar e dos grãos em função do tempo. Para resolver o sistema foram utilizados os métodos das diferenças finitas (p. ex., métodos de MacCormack e Crank- Nicolson.) e o método dos volumes finitos. A análise dos resultados permitiu recomendar o método mais adequado para cada tipo do problema. Para determinação da intensidade do fluxo de massa e de calor foram utilizados os dados experimentais de camada fina obtidos da literatura e complementados com dados experimentais desta tese. Foi desenvolvido um equipamento para obtenção das curvas de secagem de grãos em secador de leito fixo, a fim de identificar o modelo para secagem em camada espessa. A comparação entre os resultados experimentais e das simulações numéricas mostrou que o modelo descreve razoavelmente a dinâmica de secagem No problema de aeração foi desenvolvido um modelo matemático que descreve o escoamento do ar em sistemas de armazenamento de grãos, baseado em relações experimentais entre velocidade e gradiente de pressão. Para resolver o problema de aeração foi utilizado o método dos elementos finitos e desenvolvido um programa computacional. Um teste realizado com o programa mostrou que os resultados da solução numérica convergem para uma solução analítica conhecida. As simulações realizadas mostraram que o programa computacional pode ser usado como instrumento auxiliar para o projeto de silos, possibilitando o cálculo e a visualização gráfica da distribuição das pressões e das linhas de corrente em diferentes seções do armazém.
Resumo:
Propomos uma idealização da situação em que uma macromolécula é ionizada em um solvente. Neste modelo a área da superfície da molécula é suposta ser grande com respeito a seu diâmetro. A molécula é considerada como um dielétrico com uma distribuição de cargas em sua superfície. Utilizando as condições de transmissão, a distribuição de Boltzmann no solvente e resultados recentes sobre espaços de Sobolev no contexto de espaços métricos, bem como de integração sobre superfícies irregulares, o problema é formulado em forma variacional. Resultados clássicos do cálculo de variações permitem a resolução analítica do problema.
Resumo:
A paralelização de métodos de resolução de sistemas de equações lineares e não lineares é uma atividade que tem concentrado várias pesquisas nos últimos anos. Isto porque, os sistemas de equações estão presentes em diversos problemas da computação cientí ca, especialmente naqueles que empregam equações diferenciais parciais (EDPs) que modelam fenômenos físicos, e que precisam ser discretizadas para serem tratadas computacionalmente. O processo de discretização resulta em sistemas de equações que necessitam ser resolvidos a cada passo de tempo. Em geral, esses sistemas têm como características a esparsidade e um grande número de incógnitas. Devido ao porte desses sistemas é necessária uma grande quantidade de memória e velocidade de processamento, sendo adequado o uso de computação de alto desempenho na obtenção da solução dos mesmos. Dentro desse contexto, é feito neste trabalho um estudo sobre o uso de métodos de decomposição de domínio na resolução de sistemas de equações em paralelo. Esses métodos baseiam-se no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções de cada subdomínio. Uma vez que diferentes subdomínios podem ser tratados independentemente, tais métodos são atrativos para ambientes paralelos. Mais especi camente, foram implementados e analisados neste trabalho, três diferentes métodos de decomposição de domínio. Dois desses com sobreposição entre os subdomínios, e um sem sobreposição. Dentre os métodos com sobreposição foram estudados os métodos aditivo de Schwarz e multiplicativo de Schwarz. Já dentre os métodos sem sobreposição optou-se pelo método do complemento de Schur. Todas as implementações foram desenvolvidas para serem executadas em clusters de PCs multiprocessados e estão incorporadas ao modelo HIDRA, que é um modelo computacional paralelo multifísica desenvolvido no Grupo de Matemática da Computação e Processamento de Alto Desempenho (GMCPAD) para a simulação do escoamento e do transporte de substâncias em corpos de águas.
Resumo:
O presente estudo teve por objetivo avaliar se a aplicação tópica de flúor fosfato acidulado (FFA) em alta concentração tem efeito adicional no controle de lesões de esmalte, comparado ao uso de dentifrício fluoretado (baixa concentração). A freqüência de FFA como auxiliar no tratamento de lesões de cárie e a deposição de flúor no esmalte após diferentes aplicações de flúor am alta e baixa concentração também foram avaliadas. Para tanto, 5 indivíduos utilizaram, por 42 dias, próteses parciais removíveis inferiores contendo blocos de esmalte bovino desmineralizados. Os espécimes de esmalte forma divididos em 5 grupos: (1) escovação 3 vezes ao dia com dentifrício fluoretado (DF) (1100 ppm F), (2) DF+1 aplicação tópica FFA (12300 ppm F), (3) DF+2 FFA, (4) DF+3 FFA, e 5) DF+4 FFA. O intervalo entre as aplicações foi de uma semana. Cinco blocos hígidos e 5 blocos desmineralizados foram utilizados como controle e não foram submetidos ao período intraoral. As alterações clínicas foram registradas com relação à textura, coloração e brilho superficiais. Análises de microdureza superficial (MS) e em cortes longitudinais (MCL), de rugosidade superficial (RS) e de conteúdo de flúor depositado no esmalte foram realizadas. Modificações clínicas semelhantes de coloração foram observadas em todos os grupos após formação da lesão in vitro, apesar da ausência de mudanças na textura e brilho superficiais. Após escovação e tratamento com flúor, todos os blocos desmineralizados (esbranquiçados), independentemente do tratamento, tornaram-se mais amarelados. Não foram detectadas mudanças na textura e brilho superficiais. Os valores de MS e de conteúdo de flúor aumentaram (p<0,05) em relação aos blocos demineralizados somente a partir de 2 FFA. Os valores de MCL não mostraram diferenças entre os blocos tratados e os desmineralizados em qualquer distância da superfície do esmalte. Os grupos DF+3 FFA e DF+ 4 FFA foram os únicos capazes de aumentar os valores de MS em relação aos blocos desmineralizados. Estes tratamentos levaram a um aumento significativo de flúor solúvel e insolúvel comparado aos espécimes hígidos e desmineralizados. Ainda que todas as lesões tenham sido controladas clinicamente e não mostrem diferenças de microdureza, parece que aquelas tratadas com maior número de FFA produziram um maior reservatório de flúor disponível para inibir novos processos de desmineralização.
Resumo:
Esta pesquisa propõe um modelo de avaliação dos custos dos acidentes do trabalho e das doenças relacionadas com o trabalho sob uma nova ótica, fundamentado no método de custeio por atividades (ABC – Activity-Based Costing). Basicamente, no modelo proposto, soma-se, às duas fases do método ABC (rastreamento dos recursos às atividades e das atividades aos objetos de custo parciais), uma terceira fase de alocação dos objetos de custo parciais ao acidente do trabalho ou à doença relacionada com o trabalho. Os elementos constituintes e os componentes de custo incluídos no modelo proposto foram baseados na revisão bibliográfica sobre os custos dos acidentes e das doenças do trabalho, contabilidade e sistemas de custos. O modelo foi validado por meio de um estudo de caso na indústria da construção, tendo-se considerado sua aplicabilidade, confiabilidade dos resultados e auxílio no processo de tomada de decisões. Os resultados obtidos no estudo de caso mostraram que o modelo proposto possibilitou a visão de custos inicialmente não captados pelo modelo em uso na empresa e que pode atuar como ferramenta de apoio ao processo de tomada de decisões em segurança e saúde no trabalho porque estabelece novos parâmetros para tal avaliação: alocação dos recursos e atividades destinadas ao atendimento do acidente/doença em centros de atividades e objetos de custo parciais. Foram, também, identificadas oportunidades de aperfeiçoamento do modelo, pois o estudo de caso evidenciou que a aplicação do modelo não foi tão fácil como se esperava e, portanto, evidenciando a necessidade da introdução de uma primeira etapa de lançamento do modelo para melhor aplicação em empresas.
Resumo:
Os requisitos direcionam o desenvolvimento de software porque são cruciais para a sua qualidade. Como conseqüência tanto requisitos funcionais quanto não funcionais devem ser identificados o mais cedo possível e sua elicitação deve ser precisa e completa. Os requisitos funcionais exercem um papel importante uma vez que expressam os serviços esperados pela aplicação. Por outro lado, os requisitos não funcionais estão relacionados com as restrições e propriedades aplicadas ao software. Este trabalho descreve como identificar requisitos não funcionais e seu mapeamento para aspectos. O desenvolvimento de software orientado a aspectos é apontado como a solução para os problemas envolvidos na elicitação e modelagem dos requisitos não funcionais. No modelo orientado a aspectos, o aspecto é considerado o elemento de primeira ordem, onde o software pode ser modelado com classes e aspectos. As classes são comumente usadas para modelar e implementar os requisitos funcionais, já os aspectos são adotados para a modelagem e implementação dos requisitos não funcionais. Desse modo, é proposta a modelagem dos requisitos não funcionais através das fases do ciclo de vida do software, desde as primeiras etapas do processo de desenvolvimento. Este trabalho apresenta o método chamado FRIDA – From RequIrements to Design using Aspects, cujo objetivo é determinar uma forma sistemática para elicitar e modelar tanto os requisitos funcionais quanto os não funcionais, desde as fases iniciais do ciclo de desenvolvimento. Em FRIDA, a elicitação dos requisitos não funcionais é realizada usando-se checklists e léxicos, os quais auxiliam o desenvolvedor a descobrir os aspectos globais – utilizados por toda a aplicação – bem como, os aspectos parciais que podem ser empregados somente a algumas partes da aplicação. O próximo passo consiste na identificação dos possíveis conflitos gerados entre aspectos e como resolvê-los. No método FRIDA, a identificação e resolução de conflitos é tão importante quanto a elicitação de requisitos não funcionais, nas primeiras fases do ciclo de vida do software. Além disso, é descrito como usar a matriz de conflitos para automatizar esse processo sempre que possível. A extração dos aspectos e sua modelagem visual são características muito importantes, suportadas pelo método, porque elas possibilitam a criação de modelos que podem ser reutilizados no futuro. Em FRIDA, é demonstrado como transformar os requisitos em elementos da fase de projeto (classes e aspectos) e como traduzir esses elementos em código. Outra característica do método FRIDA é que a conexão entre diagramas, que pertencem a diferentes fases do processo de desenvolvimento do software, permite um alto nível de rastreabilidade. Em resumo, FRIDA requer que o desenvolvedor migre de uma visão puramente funcional para outra que contemple também os requisitos não funcionais.