888 resultados para Complexidade computacional
Resumo:
Este estudo foi realizado em uma turma do 2 ano do ensino fundamental, em uma escola pública do município de Duque de Caxias. O trabalho buscou pistas e indícios dos possíveis efeitos e implicações da Provinha Brasil no cotidiano escolar, procurando compreender como elas são ressignificadas pelos sujeitos ordinários, praticantes do cotidiano escolar. Buscou, também, identificar práticas diferenciadas no espaçotempo dos processos de ensinaraprender da sala de aula, além de discutir outras práticas de avaliação utilizadas na alfabetização e suas contribuições para a aprendizagem dos/as alunos/as. No campo teórico-metodológico, Morin (2012); Ginzburg (1989); Certeau (2012);Alves (2001) e Esteban (2001, 2006,2009) proporcionaram as âncoras para investir no desafio da pesquisa do cotidiano.Foram utilizadas a observação participante, as conversas/entrevistas, análise de documentos e fotografias. O acesso às informações forneceu material necessário para tecer os (des) afios da pesquisa. Como indício reativo e, também, de resistência, tanto a escola como a professora da turma 201, demonstraram indiferença, quanto ao uso da Provinha Brasil como diagnóstico e ajuda no planejamento pedagógico, o que implica desusos. Nas conversas, foi perceptível o quanto as políticas de avaliação afetam diretamente a subjetividade dos/as professores/as, que se mostraram ressentidos diante da desconsideração de seus saberes, de sua profissionalidade e da perda de sua autonomia. As práticas investigadas na turma 201,transbordaram as barreiras da avaliação e revelaram a complexidade e multiplicidade dos fios que tecem o cotidiano escolar. Quanto aos processos avaliativos desenvolvidos pela docente na turma e que também foram objetos de análise nesse trabalho, podemos considerar que, tanto as avaliações diagnósticas, como os relatórios descritivos, demonstraram serem insuficientes para servirem como auxiliadores do processo de ensino e aprendizagem, visto que a avaliação no sentido em que é realizada fica dissociada do processo de ensino e aprendizagem. E, na contramão da lógica que valoriza e procura empurrar os sujeitos para a competição individual, foram encontradas ações coletivas e compartilhadas dos/as alunos/as, que astuciosamente se aproveitam de cada brecha, que a rotina escolar lhes oferecem, inventando outras formas de aprenderensinar, num processo de auto-organização, a fim de conquistar a tão sonhada alfabetização.
Resumo:
A modelagem matemática e computacional é uma ferramenta que tem sido bastante utilizada no campo da Biologia e das Ciências Biomédicas. Nos dias de hoje, uma quantidade significativa de dados experimentais nessa área pode ser encontrada na literatura, tornando possível o desenvolvimento de modelos que combinem a experimentação e hipóteses teóricas. O objetivo do presente projeto é implementar um modelo matemático de transmissão sináptica conectando neurônios em um circuito de descargas repetitivas ou reverberativo, a fim de investigar o seu comportamento diante de variações paramétricas. Através de simulações computacionais, utilizando um programa desenvolvido em linguagem C++, pretende-se utilizá-lo para simular um circuito de memória imediata. Afora o considerável avanço da Neurofisiologia e Neurociência computacional no sentido do entendimento das características fisiológicas e comportamentais das habilidades do Sistema Nervoso Central, muitos mecanismos neuronais ainda permanecem completamente obscuros. Ainda não se conhece definitivamente o mecanismo pelo qual o cérebro adquire, armazena e evoca as informações. Porém, o postulado de Hebb referente às redes reverberantes, onde a idéia de que redes de reverberação facilitariam a associação de dados coincidentes entre informações sensoriais, temporalmente divergentes, tem sido aceito para explicar a formação de memória imediata (Johnson et al., 2009). Assim, com base no postulado de Hebb, os resultados observados no modelo neuromatemático-computacional adotado possuem características de um circuito de memória imediata.
Resumo:
Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.
Resumo:
O trabalho discute a qualidade da escola aferida por instrumentos avaliativos externos e a qualidade na escola vivida no cotidiano, por meio de transações. Traz a contribuição de autores que discutem as correlações entre qualidade e avaliação educacional, bem como o advento do Índice de Desenvolvimento da Educação Básica (IDEB) como principal ferramenta de aferição da qualidade das escolas. Tem como questões: investigar de que forma a cultura do exame tem contribuído na produção de indicadores de qualidade na escola, quais os sentidos de qualidade atribuídos pela comunidade escolar ao conhecer os resultados das avaliações externas e de que forma as avaliações em larga escala interferem nas concepções de qualidade dos sujeitos no cotidiano escolar. A metodologia considera o cotidiano escolar em sua complexidade e, no viés do paradigma indiciário, percebe o sentido e o significado de práticas exercidas pela escola que, principalmente, estão sendo desprezadas na concepção que vem se criando do que é uma escola de qualidade. Conceituando a avaliação formativa como ferramenta para a promoção da qualidade escolar social, a pesquisa chama a atenção para o uso da avaliação em larga escala de forma vertical, pontual, inspirada nos parâmetros de neutralidade, centrada no produto, entendendo ser este o conhecimento a ser medido, o sujeito da educação. Na contramão, procura compreender os sentidos de qualidade entendidos pelos partícipes do projeto educativo da escola e a forma como esta qualidade é negociada, em sua operacionalização, vislumbrando práticas e proposições que apontam um movimento de avaliação interna nas escolas.
Resumo:
Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura
Resumo:
O reconhecimento de padões é uma área da inteligência computacional que apoia a resolução de problemas utilizando ferramentas computacionais. Dentre esses problemas podem ser citados o reconhecimento de faces, a identificação de impressões digitais e a autenticação de assinaturas. A autenticação de assinaturas de forma automática tem sua relevância pois está ligada ao reconhecimento de indivíduos e suas credenciais em sistemas complexos e a questões financeiras. Neste trabalho é apresentado um estudo dos parâmetros do Dynamic Time Warping, um algoritmo utilizado para alinhar duas assinaturas e medir a similaridade existente entre elas. Variando-se os principais parâmetros desse algoritmo, sobre uma faixa ampla de valores, foram obtidas as médias dos resultados de erros na classificação, e assim, estas médias foram avaliadas. Com base nas primeiras avaliação, foi identificada a necessidade de se calcular um desses parâmetros de forma dinâmica, o gap cost, a fim de ajustá-lo no uso de uma aplicação prática. Uma proposta para a realização deste cálculo é apresentada e também avaliada. É também proposta e avaliada uma maneira alternativa de representação dos atributos da assinatura, de forma a considerar sua curvatura em cada ponto adquirido no processo de aquisição, utilizando os vetores normais como forma de representação. As avaliações realizadas durante as diversas etapas do estudo consideraram o Equal Error Rate (EER) como indicação de qualidade e as técnicas propostas foram comparadas com técnicas já estabelecidas, obtendo uma média percentual de EER de 3,47%.
Resumo:
Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.
Resumo:
Esta tese propôs uma metodologia para detecção de áreas susceptíveis a deslizamentos de terra a partir de imagens aéreas, culminando no desenvolvimento de uma ferramenta computacional, denominada SASD/T, para testar a metodologia. Para justificar esta pesquisa, um levantamento sobre os desastres naturais da história brasileira relacionada a deslizamentos de terra e as metodologias utilizadas para a detecção e análise de áreas susceptíveis a deslizamentos de terra foi realizado. Estudos preliminares de visualização 3D e conceitos relacionados ao mapeamento 3D foram realizados. Estereoscopia foi implementada para visualizar tridimensionalmente a região selecionada. As altitudes foram encontradas através de paralaxe, a partir dos pontos homólogos encontrados pelo algoritmo SIFT. Os experimentos foram realizados com imagens da cidade de Nova Friburgo. O experimento inicial mostrou que o resultado obtido utilizando SIFT em conjunto com o filtro proposto, foi bastante significativo ao ser comparado com os resultados de Fernandes (2008) e Carmo (2010), devido ao número de pontos homólogos encontrados e da superfície gerada. Para detectar os locais susceptíveis a deslizamentos, informações como altitude, declividade, orientação e curvatura foram extraídas dos pares estéreos e, em conjunto com as variáveis inseridas pelo usuário, forneceram uma análise de quão uma determinada área é susceptível a deslizamentos. A metodologia proposta pode ser estendida para a avaliação e previsão de riscos de deslizamento de terra de qualquer outra região, uma vez que permite a interação com o usuário, de modo que este especifique as características, os itens e as ponderações necessárias à análise em questão.
Resumo:
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.
Resumo:
No presente trabalho, o modelo de identificação de danos apresentado por Stutz et al. (2005) é utilizado. A contribuição do presente trabalho consiste em avaliar alguns pontos da identificação de danos em vigas e, em seguida, expandir o modelo para identificar danos estruturais em placas. Uma avaliação do comportamento das frequências naturais e da matriz de flexibilidade para uma viga de Euler-Bernoulli simplesmente apoiada, na presença de danos simulados pelo parâmetro de coesão é realizada. Essa análise, permite também o conhecimento das regiões onde há maior sensibilidade ao dano, ajudando a traçar estratégias para melhorar a identificação de danos em regiões que sofrem poucas alterações na presença de falhas estruturais. Comparou-se o comportamento dos dois primeiros modos de vibração da viga simplesmente apoiada na presença de um dano estrutural, com os dois primeiros modos de vibração da estrutura intacta e corrompidos por ruído. Diversos métodos de localização de danos e de otimização são avaliados na tentativa de identificar os danos simulados através do campo de danos proposto por Stutz et al. (2005) na presença de dados ruidosos. Após a apresentação de resultados da identificação de danos obtidos para uma viga de Euler-Bernoulli simplesmente apoiada, uma análise do comportamento das frequências naturais e da matriz de flexibilidade de uma viga de Euler- Bernoulli engastada na presença de danos é apresentada, assim como os resultados de identificação de danos considerando-se diversos cenários e níveis de ruído. Uma importante contribuição do presente trabalho consiste em propor um método de identificação de danos via matriz de flexibilidade onde o campo de defeitos para a placa de Kirchoff é modelado via MEF. Uma análise do comportamento da matriz de flexibilidade devido à presença de danos na placa é apresentada, assim como os resultados numéricos da identificação de danos estruturais com e sem a presença de dados ruidosos. Com a finalidade de reduzir o custo computacional na identificação de danos em estruturas complexas, uma hibridização entre o método de otimização por enxame de particulas (PSO, do inglês, Particle Swarm Optimization) e o método de otimização Levenberg-Marquardt é proposta. Resultados numéricos da hibridização para uma estrutura do tipo placa são apresentados.
Resumo:
A complexidade do fenômeno comunicacional desafia estudiosos do campo na atualidade, principalmente no âmbito dos ambientes sociais. O processo de interação mediada, por exemplo, ganhou grandes proporções na virada do século XXI com o advento das Tecnologias de Informação e de Comunicação (TIC). Os suportes tecnológicos eletrônicos ou computacionais passaram a nortear grande parte do entretenimento e da comunicação. Nesse caminho esta pesquisa analisa novas práticas de comunicação na atualidade e aponta como os jogos eletrônicos, ou também chamados games, vêm se conjugando nos processos de mediação nessas práticas. O trabalho envolve os jogos para computador, mais especificamente os chamados jogos casuais. O objeto de estudo são os tipos de interação social em jogos casuais online e o corpus de análise é o EcoCity, um jogo de simulação com final aberto que funciona nos sites de serviço de rede social. A abordagem da construção de cidades sustentáveis no game traz fatores ambientais à cena. A hipótese é que a socialização em torno desses fatores podem de alguma forma agregar valor nos usos e apropriações que os indivíduos fazem dos jogos casuais durante os processos comunicativos e interativos.
Resumo:
A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.
Resumo:
Este estudo propõe uma reflexão acerca do cuidado de enfermagem e suas práticas voltadas à pessoa com HIV/Aids desenvolvido por profissionais da equipe de enfermagem. O objetivo geral foi analisar as representações sociais e as práticas de cuidado de enfermagem a pessoa com HIV/Aids para a equipe de enfermagem que atua no Programa de DST/Aids no Município do Rio de Janeiro. Trata-se de uma pesquisa qualitativa, fundamentada na Teoria das Representações Sociais. Quanto à metodologia este estudo foi desenvolvido com 16 unidades de saúde inseridas no Programa Nacional de DST-Aids do Ministério da Saúde, que prestam assistência a pessoas que vivem com HIV/Aids em nível ambulatorial. Participaram desse estudo 37 profissionais, sendo 20 enfermeiros e 17 técnicos e auxiliares de enfermagem. Os dados foram coletados através de entrevista semiestruturada, tendo sido analisadas através da utilização do software ALCESTE 4.10; e questionário de identificação sócio-profissional, cuja análise de dados foi realizada com estatística descritiva. A partir da análise ALCESTE foram definidas 7 classes, divididas em dois blocos temáticos, sendo o primeiro denominado O HIV/Aids e seus impactos sociais através do olhar da equipe de enfermagem. Este bloco abarcou 3 classes, sendo elas: Preconceito e vulnerabilidade no cotidiano do cuidado de enfermagem de pessoas atingidas pelo HIV/Aids (classe1); As relações familiares e o envolvimento com o HIV/Aids (classe 4) e Memórias sócio profissionais sobre o HIV/Aids (classe 7). O segundo bloco temático denomina-se O HIV/Aids e as práticas de cuidado, e abarca 4 classes da análise, denominadas: A complexidade do atendimento ambulatorial da pessoa com HIV/Aids (classe 2); As práticas de cuidado da equipe de enfermagem e da equipe multiprofissional (classe 3); A educação em saúde como prática do cuidado de enfermagem (classe 5) e Medidas de proteção e biossegurança dos profissionais de enfermagem (classe 6). No primeiro bloco observa-se as representações da doença, os estigmas enfrentados pela pessoa com HIV/Aids, as relações com familiares e profissionais de saúde e as memórias da equipe de enfermagem com relação a doença. Observa-se que mesmo após ter havido mudanças no perfil da doença, as marcas do passado ainda se fazem presentes no cotidiano desses sujeitos, o que se reflete no cuidado de enfermagem, nas relações familiares e na vida em sociedade. O segundo bloco descreve as práticas institucionais e profissionais de cuidado à pessoa com HIV/Aids, observando-se o destaque da autoproteção no cuidado de enfermagem aos sujeitos com HIV/Aids. Também são destacados elementos como o cuidado do outro, tais como o vínculo, a postura acolhedora, o apoio psicológico e o relacionamento interpessoal, que são modalidades reconhecidas como participantes das práticas de cuidado, assim como a educação em saúde. Conclui-se que os diversos conteúdos que compõem as representações sociais e as práticas de cuidado de enfermagem a pessoa com HIV/Aids se apresentam sentimentos, práticas, atitudes, memórias, conceitos e imagens atuais e antigas, com a presença do cuidado instrumental, mas também do cuidado relacional.
Resumo:
Em uma grande gama de problemas físicos, governados por equações diferenciais, muitas vezes é de interesse obter-se soluções para o regime transiente e, portanto, deve-se empregar técnicas de integração temporal. Uma primeira possibilidade seria a de aplicar-se métodos explícitos, devido à sua simplicidade e eficiência computacional. Entretanto, esses métodos frequentemente são somente condicionalmente estáveis e estão sujeitos a severas restrições na escolha do passo no tempo. Para problemas advectivos, governados por equações hiperbólicas, esta restrição é conhecida como a condição de Courant-Friedrichs-Lewy (CFL). Quando temse a necessidade de obter soluções numéricas para grandes períodos de tempo, ou quando o custo computacional a cada passo é elevado, esta condição torna-se um empecilho. A fim de contornar esta restrição, métodos implícitos, que são geralmente incondicionalmente estáveis, são utilizados. Neste trabalho, foram aplicadas algumas formulações implícitas para a integração temporal no método Smoothed Particle Hydrodynamics (SPH) de modo a possibilitar o uso de maiores incrementos de tempo e uma forte estabilidade no processo de marcha temporal. Devido ao alto custo computacional exigido pela busca das partículas a cada passo no tempo, esta implementação só será viável se forem aplicados algoritmos eficientes para o tipo de estrutura matricial considerada, tais como os métodos do subespaço de Krylov. Portanto, fez-se um estudo para a escolha apropriada dos métodos que mais se adequavam a este problema, sendo os escolhidos os métodos Bi-Conjugate Gradient (BiCG), o Bi-Conjugate Gradient Stabilized (BiCGSTAB) e o Quasi-Minimal Residual (QMR). Alguns problemas testes foram utilizados a fim de validar as soluções numéricas obtidas com a versão implícita do método SPH.
Resumo:
Esta pesquisa teve como objetivo entender como os processos de exclusão ocorridos nos/dos/com os cotidianos de uma escola pública influenciam nos processos de tessituras identitárias das alunas e dos alunos com orientação homossexual e dos demais alunos que praticam ou assistem aos procedimentos de exclusão. A pesquisa nos/dos/com os cotidianos possibilitou a compreensão sobre os processos cotidianos de produção de exclusões em sua complexidade e o modo como esses interferem nas formações identitárias dos sujeitos. A partir de histórias narradas, podemos perceber algumas práticas emancipatórias que influenciaram tais tessituras de todas as alunas e alunos ao lado de práticas excludentes e homofóbicas que igualmente interferiram nas constituições das identidades de todos os estudantes. Todos esses discentes teceram aprendizagens, a partir das ações e discursos proferidos por suas professoras e professores, em relação à sexualidade e aos modos de suas manifestações. Assim, foi necessário darmos visibilidade a algumas dessas práticas para percebermos que na tessitura das identidades de todos os estudantes estão presentes aprendizagens emancipatórias e processos de subjetivações que podem ser entendidos como aprendizagens regulatórias. Verificamos que o sofrimento foi um alinhavo permanente das tessituras identitárias de alguns estudantes, tendo se transformado, para alguns, em potência e para outros, em apenas dor.