87 resultados para COMPUTAÇÃO GRÁFICA

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O Ensino à distância (EaD) procura utilizar propostas pedagógicas para desenvolver sistemas inclusivos de ensino e aprendizagem. Estas propostas tem colaborado no sucesso que a EaD tem alcançado no meio empresarial corporativo. Neste meio, a demanda por cursos de formação técnica tem sido tão alta, que as empresas envolvidas no design instrucional de EaD criaram a noção de cursos à distância expressos, ou seja, cursos cuja a concepção e elaboração devem atender as tradicionais necessidades de rapidez do mercado de trabalho. Esta dissertação procura soluções para um tipo de ensino à distância ainda pouco explorado. O cenário que procuramos equacionar é o do ensino de ferramentas (softwares) para desenho vetorial, onde a metodologia de ensino é parte do processo de ensino corporativo. No processo atual de ensino de ferramentas de computação gráfica, o aluno submete ao professor, normalmente pela internet, o seu trabalho para que uma avaliação seja feita. Nesta dissertação sugerimos que este processo seja modificado de duas formas. Primeiro, no design instrucional para esta situação, trabalhamos constantemente a questão de avaliação não só na sua forma tradicional (atribuição de graus e valores) mas também como aperfeiçoamento do processo de ensino. A hipermídia adaptativa entra nesta proposta como facilitador da relação alunoprofessor-conhecimento, permitindo individualização de um ensino voltado para as massas. Em segundo lugar, propomos que a avaliação das tarefas sejam automatizada. O aluno oferece as partes (objetos) da solução que são avaliadas individualmente através de algoritmos computacionais. Isto permite uma menor participação do professor, o que é compatível com a proposta de cursos expressos. Para que isto seja possível a tarefa proposta pelo professor é dividida em objetos componentes, sendo o aluno estimulado a criar cada objeto segundo o modelo padrão oferecido. A comparaçào de cada objeto criado pelo aluno com o padrão a ser alcançado pode ser feita por diversos algoritmos computacionais existentes ou criados especificamente pelo autor do curso. Neste trabalho apresentamos exemplos desta abordagem e um protótipo que demonstra a viabilidade da proposta.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho apresenta uma proposta que oferece ao arquiteto uma metodologia e um conjunto de ferramentas que auxiliará na representação gráfica de projetos de acessibilidade. O elemento base da proposta constitui-se em uma biblioteca de modelos 3D onde os equipamentos de acessibilidade, necessários em um projeto, estão modelados de acordo com a norma NBR9050. Para organizar o conhecimento da norma e guiar o arquiteto no uso da metodologia, a abordagem inclui uma taxonomia dos equipamentos de acessibilidade, utilizada para induzir o uso correto dos mesmos na modelagem 3D e para a construção de um Help integrado às ferramentas providas, auxiliando o arquiteto em suas tomadas de decisão, indicando quais são as melhores soluções propostas pela NBR9050. Para validar a proposta, um protótipo foi desenvolvido e, com este suporte, foi realizada uma avaliação com estudantes de arquitetura onde se verificou a necessidade de novas ferramentas para representação gráfica e de consulta à norma NBR9050 e a aceitação as ferramentas propostas nesta dissertação.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A proposta desse trabalho é mostrar a produção em termos de design das vinhetas para televisão e as técnicas para a produção das mesmas desde o início da televisão no Brasil no ano de 1950, até os primeiros anos da TV Educativa (TVE), período no qual a computação gráfica televisiva dava os primeiros passos no país. Além de fazer um panorama histórico dos elementos gráficos que eram veiculados nesse meio de comunicação e a apresentação de conceitos utilizados na área, o trabalho mostra como funcionava a prática do design gráfico em movimento através dos trabalhos do designer gráfico Rui de Oliveira, que trabalhou na TV Educativa entre os anos de 1977 e 1983.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A aproximação fisionômica é o método que busca, a partir do crânio, simular a fotografia de um indivíduo quando em vida. Deve ser empregada como último recurso, na busca de desaparecidos, quando não houver possibilidade de aplicação de um método válido de identificação. O objetivo deste estudo foi obter a aproximação fisionômica, a partir de um crânio seco e de tomografia computadorizada multislice de indivíduos vivos, através da função de base radial hermitiana (FBRH). Constituiu-se também em avaliar o resultado da mesma quanto ao reconhecimento. Na primeira etapa do estudo, foi utilizada a imagem escaneada de um crânio seco, de origem desconhecida, com o intuito de avaliar se a quantidade de pontos obtidos seria suficiente para aplicação da FBRH e consequente reconstrução da superfície facial. Na segunda fase, foram utilizadas três tomografias de indivíduos vivos, para análise da semelhança alcançada entre a face escaneada e as aproximações faciais. Nesta etapa, foi aplicada uma associação de diferentes metodologias já publicadas, para reconstrução de uma mesma região da face, a partir de um mesmo crânio. Na última etapa, foram simuladas situações de reconhecimento com familiares e amigos dos indivíduos doadores das tomografias. Observou-se que a metodologia de FBRH pode ser empregada em aproximação fisionômica. Houve reconhecimento positivo nos três sujeitos estudados, sendo que, em dois deles, os resultados foram ainda mais significativos. Desta forma, conclui-se que a metodologia é rápida, objetiva e proporciona o reconhecimento. Esta permite a criação de múltiplas versões de aproximações fisionômicas a partir do mesmo crânio, o que amplia as possibilidades de reconhecimento. Observou-se ainda que a técnica não exige habilidade artística do profissional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Casa da Moeda do Brasil (CMB) é uma empresa nacional, com mais de 300 anos de experiência na produção de valores e impressos de segurança. A produção de cédulas, realizada pelo Departamento de Cédulas (DECED), consiste de três etapas de impressão, off-set, calografia e tipografia, seguida de acabamento e embalagem semi-automatizado. A impressão calcográfica consome solução de limpeza, composta de soda cáustica e óleo sulfonado, para limpeza do cilindro de impressão, gerando um efluente líquido saturado de tinta. Este efluente apresenta baixa biodegradabilidade, apresentando uma relação DBO / DQO de aproximadamente 1:4. Em termos de tratabilidade, as estações de tratamento de efluentes (ETE) apresentam uma configuração convencional, por via biológica, demonstram pouca eficiência na degradação da matéria orgânica deste efluente. Com compostos recalcitrantes, torna-se necessária a inclusão de uma etapa terciária que permita sua degradação por via química, permitindo o descarte do efluente com características menos danosas ao ambiente. Neste trabalho, aplicou-se a reação de Fenton no efluente do DECED por sua capacidade de converter a matéria orgânica em gás carbônico e água ou, caso seja utilizado em pré-tratamentos, torna-os biodegradáveis. Foram estudadas diferentes condições para medir a influência de diferentes parâmetros na eficiência da reação. A reação de Fenton consiste na geração de radicais hidroxil (HO), por diferentes rotas, em quantidades suficientes para a degradação de matéria orgânica. Esses radicais são gerados a partir de peróxido de hidrogênio (H2O2) em reações com diferentes precursores como ozônio (O3), luz UV (ultravioleta), ultra-som e sais de ferro. No presente trabalho restringiu-se às reações com sais de ferro. Dentre os resultados obtidos, verificou-se o tempo mínimo para reação em 10 minutos. A relação entre íons ferro e peróxido de hidrogênio é menor do que a literatura normalmente sugere, 1:2, contra 1:3. Como a solução de sulfato ferroso é muito instável, passando os íons ferrosos a férricos, utilizou-se a adição direta do sal. Em escala industrial, a solução de sulfato ferroso deve ser preparada em poucas quantidades para que tenha baixo tempo de estocagem, a fim de não ser degradada. A temperatura, na faixa estudada (de 20C à 45C), é um parâmetro que tem pouca influência, pois a redução da eficiência da reação foi pequena (de 99,0% para 94,9%). O ferro utilizado na reação não se demonstrou uma nova fonte de transtornos para o ambiente. Nas condições utilizadas, a concentração de ferro residual esteve próxima ao limite permitido pela legislação no efluente tratado, necessitando apenas de alguns ajustes para a correção do problema

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar os riscos de ocorrências de intrusos em um sistema de computação em nuvem para sistemas distribuídos utilizando lógica nebulosa. A computação em nuvem é um tema que vem sendo bastante abordado e vem alavancando discussões calorosas, tanto na comunidade acadêmica quanto em palestras profissionais. Embora essa tecnologia esteja ganhando mercado, alguns estudiosos encontram-se céticos afirmando que ainda é cedo para se tirar conclusões. Isto se deve principalmente por causa de um fator crítico, que é a segurança dos dados armazenados na nuvem. Para esta dissertação, foi elaborado um sistema distribuído escrito em Java com a finalidade de controlar um processo de desenvolvimento colaborativo de software na nuvem, o qual serviu de estudo de caso para avaliar a abordagem de detecção de intrusos proposta. Este ambiente foi construído com cinco máquinas (sendo quatro máquinas virtuais e uma máquina real). Foram criados dois sistemas de inferência nebulosos, para análise de problemas na rede de segurança implementados em Java, no ambiente distribuído. Foram realizados diversos testes com o intuito de verificar o funcionamento da aplicação, apresentando um resultado satisfatório dentro dessa metodologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho é comparar, do ponto de vista elétrico, a membrana do neurônio ganglionar com a da célula de neuroblastoma, analisando os efeitos das cargas fixas sobre o potencial elétrico nas superfícies da bicamada lipídica e também sobre o comportamento do perfil de potencial através da membrana, considerando as condiçõesfísico-químicas do estado de repouso e do estado de potencial de ação. As condições para a ocorrência dos referidos estados foram baseadas em valores numéricos de parâmetros elétricos e químicos, característicos dessas células, obtidos na literatura. O neurônio ganglionar exemplifica um neurônio sadio, e a célula de neuroblastoma, que é uma célula tumoral, exemplifica um neurônio patológico, alterado por esta condição. O neuroblastoma é um tumor que se origina das células da crista neural (neuroblastos), que é uma estrutura embrionária que dá origem a muitas partes do sistema nervoso, podendo surgir em diversos locais do organismo, desde a região do crânio até a área mais inferior da coluna. O modelo adotado para simular a membrana de neurônio inclui: (a) as distribuições espaciais de cargas elétricas fixas no glicocálix e na rede de proteínas citoplasmáticas; (b) as distribuições de cargas na solução eletrolítica dos meios externo e interno; e (c) as cargas superficiais da bicamada lipídica. Os resultados que obtivemos mostraram que, nos estados de repouso e de ação, os potenciais superficiais da bicamada interno (ÁSbc) e externo (ÁSgb) da célula de neuroblastoma não sofrem alteração mensurável, quando a densidade de carga na superfície interna (QSbc) torna-se 50 vezes mais negativa, tanto para uma densidade de carga na superfície externa da bicamada nula (QSgb = 0), como para um valor de QSgb 6= 0. Porém, no estado de repouso, uma leve queda em ÁSbc do neur^onio ganglionar pode ser observada com este nível de variação de carga, sendo que ÁSgb do neurônio ganglionar é mais negativo quando QSgb = 1=1100 e/A2. No estado de ação, para QSgb = 0, o aumento da negatividade de QSbc não provoca alteração detectável de ÁSbc e ÁSgb para os dois neurônios. Quando consideramos QSgb = 1=1100 e/A2, ÁSgb do neurônio ganglionar se torna mais negativo, não se observando variações detectáveis nos potenciais superficiais da célula de neuroblastoma. Tanto no repouso quanto no estado de ação, ÁSgb das duas células não sofre variação sensível com o aumento da negatividade da carga fixa distribuída espacialmente no citoplasma. Já a ÁSbc sofre uma queda gradativa nos dois tipos celulares; porém, no estado de ação, esta queda é mais rápida. Descobrimos diferenças importantes nos perfis de potencial das duas células, especialmente na região do glicocálix.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação é apresentada uma modelagem analítica para o processo evolucionário formulado pela Teoria da Evolução por Endossimbiose representado através de uma sucessão de estágios envolvendo diferentes interações ecológicas e metábolicas entre populações de bactérias considerando tanto a dinâmica populacional como os processos produtivos dessas populações. Para tal abordagem é feito uso do sistema de equações diferenciais conhecido como sistema de Volterra-Hamilton bem como de determinados conceitos geométricos envolvendo a Teoria KCC e a Geometria Projetiva. Os principais cálculos foram realizados pelo pacote de programação algébrica FINSLER, aplicado sobre o MAPLE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A viscosimetria é um procedimento experimental simples e pouco oneroso, que pode fornecer informações valiosas sobre o volume hidrodinâmico e a conformação de macromoléculas em solução, num determinado solvente, em uma dada temperatura. Os parâmetros viscosimétricos podem ser matematicamente calculados por extrapolação gráfica, cuja execução experimental é mais demorada. Em contrapartida, é possível que a determinação seja feita por um único ponto. Neste trabalho, os dois métodos de cálculo, empregando uma série de seis equações: Huggins, Kraemer e Schulz-Blaschke, por extrapolação gráfica, e Schulz-Blaschke, Solomon-Ciuta e Deb-Chanterjee por um único ponto, foram utilizados em soluções de poli(glicol propilênico) (PPG) e copolímeros em bloco à base de poli(glicol propilênico) e poli(glicol etilênico) (EG-b-PG), com diferentes teores de poli(glicol etilênico), tendo isopropanol, tetra-hidrofurano (THF) e tolueno como solventes puros, além das misturas em proporções iguais de THF/ isopropanol e THF/ tolueno, a 25C. Os valores de viscosidade intrínseca e de algumas constantes indicaram que os solventes puros e as misturas se apresentaram no limite entre o bom e o mau solvente. Verificou-se também que o método de cálculo por um único ponto foi válido, especialmente quando a equação de Schulz-Blaschke foi empregada, apresentando um baixo percentual de erro sendo possível assim reduzir o tempo de análise para a maioria dos sistemas estudados

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A odontologia moderna utiliza métodos e técnicas ultraconservadores no intuito de corrigir os diversos tipos de alterações cromáticas observadas clinicamente. Os meios empregados baseiam-se na utilização de substâncias químicas à base de peróxidos presentes em diversas concentrações. O presente estudo objetivou avaliar a microestrutura de três resinas compostas fotossensíveis submetidas à aplicação de um agente clareador a base de peróxido de hidrogênio a 35% (Whiteness HP Maxx - fabricante: FGM), ativado por uma fonte híbrida de energia luminosa (Aparelho de Laser-Led Whitening Lase, fabricante: DMC). Para isso, foram confeccionados 30 corpos de prova (CDP) 10 para cada grupo, no formato de discos, com 13 mm de diâmetro e 2,0 mm de espessura em uma matriz de teflon e aço inox, fotoativados por um aparelho de luz halógena convencional (Optilux 401 - Demetron/UR) por 40 segundos com densidade de potência média igual a 450 mW/cm2. Os grupos foram dispostos da seguinte forma: Grupo 1 - resina microparticulada (Durafill VS - fabricante: Heraeus Kulzer); Grupo 2 - resina micro-híbrida (Esthet-X - fabricante: Dentsply); e Grupo 3 resina nanoparticulada (Filtek Supreme XT fabricante: 3M ESPE). Todos os materiais restauradores utilizados eram da cor A2. Após serem submetidos à sequência de acabamento e polimento os CDP foram armazenados por sete dias em saliva artificial, limpos em ultra-som, envelhecidos artificialmente de acordo com a norma ASTM G 154. Os CDP dos três grupos foram aleatoriamente divididos em 2 subgrupos (ST sem tratamento e CT com tratamento) e finalmente submetidos aos experimentos. Os CDP dos subgrupos 1-ST, 2- ST e 3-ST foram triturados (SPEX SamplePrep 8000-series, marca: Mixer/Mills) seguido pela verificação dos materiais por meio de um espectrômetro (marca/modelo: Shimadzu EDX 720) para certificação da ausência de elementos pertencentes ao meio de moagem e por fim foram levados a um difrator de raios-X (marca / modelo: Philips -PW 3040 -X'Celerator- 40kV; 30mA; (λ): CuKα; 0,6; 0,2mm; 0,05 (2θ); 2s; 10-90 (2θ). Em seguida os CDP dos subgrupos 1-CT, 2- CT e 3-CT foram tratados com o peróxido de hidrogênio de acordo com o protocolo do fabricante para a fonte híbrida luminosa de energia selecionada, totalizando 9 aplicações de 10 minutos, onde eram respeitados os tempos de 3 minutos de ativação por 20 segundos de descanso, finalizando 10 minutos em cada aplicação. Mediante a este tratamento, os CDP dos subgrupos CT eram verificados e avaliados pelo mesmo método descrito anteriormente. Após interpretação gráfica, análise comparativa por meio do processamento digital das imagens no programa KS400 3.0 (Carl Zeiss Vision) e análise de concordância por cinco avaliadores calibrados utilizando um escore, pôde-se concluir que houve degradação estrutural e que as estruturas cristalinas das resinas estudadas foram afetadas de forma distinta quando tratadas pelo peróxido de hidrogênio; onde observou-se que: Grupo 1 > Grupo 3 > Grupo 2. Foi sugerido a realização de novos estudos, relacionados à interação do peróxido de hidrogênio às resinas compostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação foi desenvolvido o sistema SAQUA (Sistema para Análise da Qualidade das Águas Fluviais), que permite o acompanhamento dos dados de séries históricas de parâmetros físico-químicos para análise da qualidade de águas fluviais. A alimentação do sistema SAQUA se dá a partir do arquivo tipo texto gerado no Hidroweb, sistema de banco de dados hidrológicos da ANA (Agência Nacional de Águas), disponibilizado na internet. O SAQUA constitui uma interface que permite a análise espaço-temporal de parâmetros de qualidade da água específicos definidos pelo usuário. A interface foi construída utilizando o servidor de mapas Mapserver, as linguagens HTML e PHP, além de consultas SQL e o uso do servidor Web Apache. A utilização de uma linguagem dinâmica como o PHP permitiu usar recursos internos do Mapserver por meio de funções que interagem de forma mais flexível com códigos presentes e futuros, além de interagir com o código HTML. O Sistema apresenta como resultado a representação gráfica da série histórica por parâmetro e, em mapa, a localização das estações em análise também definidas pelo usuário, geralmente associadas a uma determinada região hidrográfica. Tanto na representação gráfica da série temporal quanto em mapa, são destacados a partir de código de cores a estação de monitoramento e a observação em que os limites estabelecidos na resolução CONAMA 357/05 não foi atendido. A classe de uso da resolução CONAMA que será usada na análise também pode ser definida pelo usuário. Como caso de estudo e demonstração das funções do SAQUA foi escolhida a bacia hidrográfica do rio Paraíba do Sul, localizada na região hidrográfica Atlântico Sudeste do Brasil. A aplicação do sistema demonstrou ótimos resultados e o potencial da ferramenta computacional como apoio ao planejamento e à gestão dos recursos hídricos. Ressalta-se ainda, que todo o sistema foi desenvolvido a partir de softwares disponibilizados segundo a licença GPL de software livre, ou seja, sem custo na aquisição de licenças, demonstrando o potencial da aplicação destas ferramentas no campo dos recursos hídricos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho aborda um problema inverso associado a difus~ao de calor em uma barra unidimensional. Esse fen^omeno e modelado por meio da equac~ao diferencial par- cial parabolica ut = uxx, conhecida como equac~ao de difus~ao do calor. O problema classico (problema direto) envolve essa equac~ao e um conjunto de restric~oes { as condic~oes inicial e de contorno {, o que permite garantir a exist^encia de uma soluc~ao unica. No problema inverso que estudamos, o valor da temperatura em um dos extremos da barra n~ao esta disponvel. Entretanto, conhecemos o valor da temperatura em um ponto x0 xo no interior da barra. Para aproximar o valor da temperatura no intervalo a direita de x0, propomos e testamos tr^es algoritmos de diferencas nitas: diferencas regressivas, leap-frog e diferencas regressivas maquiadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivos identificar e analisar fatores associados ao aleitamento materno exclusivo, com significância estatística, em crianças menores de quatro meses residentes em Juiz de Fora, Minas Gerais. Fornece informações básicas para planejamento de política de amamentação neste município, estudando fatores influentes no desmame e criando Banco de Dados em Aleitamento Materno no Centro de Computação do Núcleo de Assessoria Técnica aos Estudos em Saúde da Universidade Federal de Juiz de Fora, disponível pára uso público. Compara os resultado desta pesquisa aos de outras cidades brasileiras com estudo de metodologia semelhante. Para atingir os objetivos propostos foi realizada pela autora desta tese uma pesquisa no período de 10 de agosto a 13 de setembro de 2002, época da campanha de vacinação na cidade, em uma amostra por conglomerado, tendo sido entrevistadas 1859 pessoas, sendo 625 mães e acompanhantes de crianças menores de 4 meses, em 24 postos de vacinação. A terminologia empregada deu-se de acordo com a recomendação da OMS (1991). Aplicou-se um questionário por intermédio de 268 entrevistadores voluntários, previamente treinados, incluindo estudantes da área de saúde. A pesquisa fez parte de um estudo multicêntrico em conjunto com o Núcleo de Pesquisas Epidemiológicas em Nutrição e Saúde da Universidade de São Paulo e do Núcleo de Investigação em Saúde da Mulher e da Criança, Instituto de Saúde, Secretaria Estadual de Saúde de São Paulo denominado Avaliação das práticas alimentares no primeiro ano de vida em dias nacionais de vacinação. A análise dos dados foi processada utilizando-se o programa Statiscal Package for The Social Sciences (SPSS) e os resultados foram descritos utilizando-se o teste do qui-quadrado para verificar a significância estatística da associação dos fatores independentes com o fator de desfecho aleitamento materno exclusivo. Para estudar possíveis fatores de confusão foi aplicada a técnica de análise de regressão logística. A pesquisa evidenciou que a prevalência de Aleitamento Materno Exclusivo aos 4 meses é baixa, sendo que esta é menor que as taxas da maioria das capitais brasileiras, com exceção de Cuiabá. Os hábitos de usar chupetas e mamadeiras são muito freqüentes no município. Os fatores de risco para interrupção do aleitamento materno exclusivo até os quatro meses encontrados foram: primiparidade, nascimento em hospital público ou público-privado, não disponibilidade para amamentar, uso de chupetas ou mamadeiras. A maioria das crianças inicia a amamentação no primeiro dia de vida em casa mas não de forma exclusiva. À medida que a idade aumenta, o índice de amamentação vai diminuindo progressivamente, indicando a necessidade urgente de programas de apoio e incentivo ao aleitamento materno, em especial de sua forma exclusiva, bem como de promoção do mesmo no município. Deve ser dada ênfase nesta atenção às mulheres primíparas e àquelas mulheres cujos partos ocorreram em hospitais públicos ou públicos-privados, que não tenham disponibilidade para amamentar e que utilizam mamadeiras ou chupetas para seus filhos.