985 resultados para Método fenomenológico


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um método de Matriz Resposta (MR) é descrito para gerar soluções numéricas livres de erros de truncamento espacial para problemas multigrupo de transporte de nêutrons com fonte fixa e em geometria unidimensional na formulação de ordenadas discretas (SN). Portanto, o método multigrupo MR com esquema iterativo de inversão nodal parcial (NBI) converge valores numéricos para os fluxos angulares nas fronteiras das regiões que coincidem com os valores da solução analítica das equações multigrupo SN, afora os erros de arredondamento da aritmética finita computacional. É também desenvolvido um esquema numérico de reconstrução espacial, que fornece a saída para os fluxos escalares de nêutrons em cada grupo de energia em um intervalo qualquer do domínio definido pelo usuário, com um passo de avanço também escolhido pelo usuário. Resultados numéricos são apresentados para ilustrar a precisão do presente método em cálculos de malha grossa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho objetiva investigar o acirramento da questão do ser no pensamento de Martin Heidegger e suas implicações para a questão filosófica clássica sobre a verdade. Ao dizer isto, identificamos de antemão um importante ponto de nossa pesquisa, a saber, a maneira como enunciar tal questão pressupõe uma relação específica com a tradição filosófica que é a nossa, à qual não podemos, em última análise, prescindir. Em vista destas duas condições primordiais que caracterizam o horizonte de nosso trabalho, pretendemos primeiramente compreender o movimento que vai da ontologia fundamental de ST à recolocação da questão sobre a verdade para, em seguida, avaliar a relação da noção de verdade que aí aparece com outra definição clássica importante, a de verdade como correspondência ou adequação; para, então, por fim, interrogar os seguintes temas subjacentes à nossa questão norteadora de maneira mais explícita: a relação entre verdade e filosofia e verdade e liberdade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em uma grande gama de problemas físicos, governados por equações diferenciais, muitas vezes é de interesse obter-se soluções para o regime transiente e, portanto, deve-se empregar técnicas de integração temporal. Uma primeira possibilidade seria a de aplicar-se métodos explícitos, devido à sua simplicidade e eficiência computacional. Entretanto, esses métodos frequentemente são somente condicionalmente estáveis e estão sujeitos a severas restrições na escolha do passo no tempo. Para problemas advectivos, governados por equações hiperbólicas, esta restrição é conhecida como a condição de Courant-Friedrichs-Lewy (CFL). Quando temse a necessidade de obter soluções numéricas para grandes períodos de tempo, ou quando o custo computacional a cada passo é elevado, esta condição torna-se um empecilho. A fim de contornar esta restrição, métodos implícitos, que são geralmente incondicionalmente estáveis, são utilizados. Neste trabalho, foram aplicadas algumas formulações implícitas para a integração temporal no método Smoothed Particle Hydrodynamics (SPH) de modo a possibilitar o uso de maiores incrementos de tempo e uma forte estabilidade no processo de marcha temporal. Devido ao alto custo computacional exigido pela busca das partículas a cada passo no tempo, esta implementação só será viável se forem aplicados algoritmos eficientes para o tipo de estrutura matricial considerada, tais como os métodos do subespaço de Krylov. Portanto, fez-se um estudo para a escolha apropriada dos métodos que mais se adequavam a este problema, sendo os escolhidos os métodos Bi-Conjugate Gradient (BiCG), o Bi-Conjugate Gradient Stabilized (BiCGSTAB) e o Quasi-Minimal Residual (QMR). Alguns problemas testes foram utilizados a fim de validar as soluções numéricas obtidas com a versão implícita do método SPH.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta pesquisa utilizou-se um equipamento experimental que utiliza o método do eco-impacto produzido no Laboratório de Ensaios Físicos do Instituto Politécnico do Rio de Janeiro (UERJ/IPRJ), para estimar a espessuras de placas de concreto através da propagação de ondas de tensão geradas por um impacto. Para determinação dessa espessura, foram investigados vários mecanismos de estruturação do protótipo do equipamento com objetivo de se obter a melhor leitura possível, por meio das literaturas existentes. Entre parâmetros avaliados no estudo, estava o modelo de sensor a ser utilizado, o tipo de impactor, a precisão relacionada à aquisição de dados e o tratamento do mesmo, a distância entre o ponto de impacto e o transdutor (sensor), e o local de teste. Os resultados experimentais concordam com as previsões teóricas e revelam que este método é eficiente para análise de estrutura de concreto. A análise da espessura e resposta em frequência de um novo protótipo desenvolvido e os testes realizados possibilitou um erro médio de espessura real para amostras sem agregados de 0,39% e para as amostras com agregados com de 0,64%. Esses resultados apontam que o equipamento produzido tem potencial e que o mesmo pode ser utilizado para avaliação de estrutura de concreto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, analisamos o modo como o processo de seleção de pessoal se estabeleceu em meio às determinações de sentido nesta que Martin Heidegger denominou a era da técnica. Esse filósofo descreve a época em que vivemos como uma era que se caracteriza essencialmente pela ênfase no pensamento técnico-calculante, em que todas as coisas são tomadas pelo caráter da mensuração e calculabilidade. Nesse sentido, podemos afirmar que a era moderna detém como verdades algumas características, como: fundo de reserva, funcionalidade (serventia) e a produtividade sem limites. Esse modelo de pensamento tem um impacto direto na realização do processo de seleção de pessoal pela Psicologia, haja vista ser esse o critério básico exigido para que o trabalhador seja aprovado. Ocorre que, ao tomar esse critério como a única e absoluta verdade da capacidade do trabalhador, outras capacidades e motivações, quando muito, ficam relegadas a um segundo plano. O homem, tomado como um estoque de matéria-prima, com funcionalidades específicas e pela determinação da produtividade incessante, passa a se comportar de modo autômato, tal como a máquina, cuja utilidade dura enquanto durar a necessidade de sua produção, sendo descartado quando outras necessidades se sobrepõem àquela. Através da análise da trajetória da organização do trabalho e sua interface com a Psicologia, procuramos esclarecer o domínio do caráter técnico instrumental que vem sustentando a Psicologia no modo de realização da seleção de pessoal, baseando-nos em autores como Sampaio, Chiavenato, Pontes e Leme. Apresentamos, também, a contribuição de outros autores, como Sennett, Dejours e Schwartz, que tentaram, a seu modo, construir uma análise crítica da relação homem-trabalho sob os parâmetros predominantes na atualidade. Por fim, por meio a uma visada fenomenológico-hermenêutica, pudemos refletir sobre o processo de seleção em Psicologia e compreender como esta, ao ser constantemente interpelada pela era da técnica, vem tomando os atributos dessa era como verdades absolutas e, assim, estabelecendo seu fazer em seleção de pessoal sob essas verdades. Ao orientar seu fazer por esse modo, a Psicologia, comprometida com o processo de seleção, compactua, sedimenta e fortalece essa forma de pensar em que o homem é tomado como objeto de produção tal qual a máquina, consolidando uma relação homem-trabalho em bases preponderantemente deterministas e, como tal, aprisionadoras. A proposta aqui desenvolvida consiste em evidenciar a possibilidade de outra posição da Psicologia frente ao modo de estabelecimento do processo de seleção, de forma a resistir à perspectiva de homem apenas como um fator produtivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Assim como a medicina, a psiquiatria não consiste em uma disciplina teórica, mas sim, em uma práxis, um projeto teórico que somente se justifica pelo projeto prático. Trata-se, portanto, de um campo de intervenção. A psiquiatria utiliza diversas abordagens teóricas e científicas com uma finalidade prática. O objeto de estudo do campo, entretanto, não se confunde com o objeto destas abordagens. O objeto da psiquiatria pode ser definido em vertentes reducionistas e não-reducionistas. No contexto atual, há uma tendência a uma polarização. Por um lado, o objeto da psiquiatria é concebido como o objeto das demais especialidades médicas, enquanto doença mental, localizado no cérebro e resultando em práticas que privilegiam as abordagens biológicas. Por outro, em vertentes mais amplas de definição, ele consiste no sofrimento psíquico e social ou em disfunções internas socialmente inapropriadas, o que envolve múltiplos níveis e dimensões biológico, fenomenológico, cultural. Esta concepção do objeto da psiquiatria demanda uma multiplicidade e pluralidade de abordagens tanto no plano teórico quanto no plano prático. A presente tese afirma que uma perspectiva multinível e plural é imperiosa à práxis psiquiátrica. A tese está dividida em duas partes. Na primeira, realiza-se uma discussão filosófica na psiquiatria, mediante o método da investigação conceitual, visando um refinamento teórico do campo, que tende a gerar práticas mais efetivas. Três problemas filosóficos que perpassam a psiquiatria são discutidos: a distinção explicação-compreensão; o problema mente-cérebro e a distinção fato-valor. Aponta-se uma solução pragmatista para cada um destes problemas. Na segunda parte, realiza-se um estudo de caso com o exemplar esquizofrenia, analisando os múltiplos níveis do fenômeno mediante a apresentação das abordagens biológicas, fenomenológicas e antropológicas da esquizofrenia na contemporaneidade, enfocando, respectivamente, as hipóteses neurodesenvolvimentais, as alterações na consciência pré-reflexiva de si e as concepções do fenômeno em contextos não-ocidentais. A esquizofrenia corresponde a uma categoria de alta validade, tendo uma importante participação de fatores genético-biológicos. Ainda assim, o modelo biomédico se mostra insuficiente para dar conta da complexidade da experiência do adoecimento nesta condição. Portanto, uma perspectiva multinível e plural se faz mandatória. E se esta perspectiva se aplica à esquizofrenia, aplicar-se-á também a todos os transtornos mentais, com importantes implicações para a práxis psiquiátrica, seja no âmbito da teoria e pesquisa, seja no âmbito da clínica e da elaboração de políticas públicas de saúde mental, ajustando-se melhor, por exemplo, aos propósitos do Global Mental Health.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação Método Pocha: Práticas de Ensino em Performance para Cruzadores de Fronteiras é uma reflexão sobre possibilidades educativas em performance art. Pesquisa que tem como enfoque o Método Pocha metodologia de ensino em performance desenvolvida pelo coletivo La Pocha Nostra. Nesse sentido, busca-se identificar as propostas metodológicas, procedimentos, temáticas, apontamentos conceituais que sustentam as práticas pedagógicas do La Pocha Nostra, e investigar o processo formativo/educativo por vias da arte da performance. O recorte da presente abordagem prioriza performances que habitem interstícios e espaços fronteiriços. Compreende o performer como um cronista do seu tempo/espaço, que reflete e problematiza os fluxos, formações e composições contemporâneas. As práticas, procedimentos e conceitos desenvolvidos nos programas performativos do coletivo La Pocha Nostra são pensados no contexto da pesquisa enquanto modo de descolonizar nossos corpos e criar complicações em torno de representações vigentes, ampliando noções de identidade e diferença em seu lugar de trânsito: o corpo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nanopartículas de dióxido de titânio vêm sendo extensamente empregadas como fotocatalisa-dores, já que são eficientes na degradação de diversos poluentes. Visando a obtenção de titâ-nias com diferentes propriedades, realizaram-se sínteses através do método sol-gel, a partir da hidrólise do tetraisopropóxido de titânio (IV) TIPP e seguindo-se os princípios da Química Verde, dispensando-se temperaturas e pressões elevadas. Foi estudada a influência de dife-rentes parâmetros, como: pH, solvente, razão molar álcool/TIPP e ordem de adição dos rea-gentes. Foram obtidas titânias na forma cristalina anatásio, nanométricas, com elevadas áreas superficiais específicas e predominantemente mesoporosas. Visando-se obter titânias com melhores propriedades óticas, isto é, capazes de sofrer a fotoativação pela luz visível, foram sintetizadas titânias dopadas e co-dopadas com os metais ferro e rutênio (Fe3+ e Ru3+) e o a-metal N (N3). A síntese desses materiais também foi realizada através do método sol-gel, sendo a dopagem realizada durante o processo de hidrólise. As amostras foram caracterizadas na forma de pó por difração de raios-X, adsorção-dessorção de nitrogênio, microscopia ele-trônica de varredura e espectroscopia de refletância difusa no UV-Visível. A titânia pura a-presentou como única fase cristalina o anatásio, quando calcinada até 400 C, com a presença de traços de brookita. A partir de 600 C, observou-se o aparecimento da fase rutilo, que em 900C foi a única fase encontrada na titânia. A dopagem com Ru3+dificultou a transformação de fase anatásio para rutilo, ao contrário da dopagem com Fe3+. O processo de co-dopagem acelerou a formação de rutilo, que se apresentou como única fase nas amostras calcinadas a 600 C. As titânias dopadas apresentaram uma leve diminuição na energia de bandgap, sendo os dopantes capazes de deslocar a absorção para o vermelho. Foram realizados testes fotoca-talíticos visando à degradação do azocorante Reactive Yellow 145 com lâmpada de vapor de mercúrio de 125 W a fim de se comparar as atividades fotocatalíticas das titânias puras, dopa-das e co-dopadas, calcinadas a 300C. De todas as titânias sintetizadas, a titânia pura foi a que melhor degradou o corante, tendo um desempenho semelhante ao do TiO2 P25, da Evo-nik

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em engenharia, a modelagem computacional desempenha um papel importante na concepção de produtos e no desenvolvimento de técnicas de atenuação de ruído. Nesse contexto, esta tese investiga a intensidade acústica gerada pela radiação sonora de superfícies vibrantes. De modo específico, a pesquisa enfoca a identificação das regiões de uma fonte sonora que contribuem efetivamente para potência sonora radiada para o campo afastado, quando a frequência de excitação ocorre abaixo da frequência crítica de coincidência. São descritas as fundamentações teóricas de duas diferentes abordagens. A primeira delas, denominada intensidade supersônica (analítica) é calculada via transformadas de Fourier para fontes sonoras com geometrias separáveis. A segunda, denominada intensidade útil (numérica) é calculada através do método dos elementos de contorno clássico para fontes com geometrias arbitrárias. Em ambas, a identificação das regiões é feita pela filtragem das ondas não propagantes (evanescentes). O trabalho está centrado em duas propostas, a saber. A primeira delas, é a apresentação implementação e análise de uma nova técnica numérica para o cálculo da grandeza intensidade útil. Essa técnica constitui uma variante do método dos elementos de contorno (MEC), tendo como base o fato de as aproximações para as variáveis acústicas pressão e velocidade normal serem tomadas como constantes em cada elemento. E também no modo peculiar de obter a velocidade constante através da média de um certo número de velocidades interiores a cada elemento. Por esse motivo, a técnica recebe o nome de método de elemento de contorno com velocidade média (AVBEMAverage Velocity Boundary Element Method). A segunda, é a obtenção da solução forma fechada do campo de velocidade normal para placas retangulares com oito diferentes combinações de condições contorno clássicas. Então, a intensidade supersônica é estimada e comparada à intensidade acústica. Nos ensaios numéricos, a comparação da intensidade útil obtida via MEC clássico e via AVBEM é mostrada para ilustrar a eficiência computacional da técnica aqui proposta, que traz como benefício adicional o fato de poder ser utilizada uma malha menos refinada para as simulações e, consequentemente, economia significativa de recursos computacionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

É notório que o senso comum trabalha com a ideia de que o medo está cada vez mais se intensificando no mundo que é o nosso. Nas metrópoles das sociedades ocidentais a alusão ao medo tem espaço partilhado. Jornais, revistas, rádio e TV são os meios populares que noticiam todos os tipos de violência e, consecutivamente, apontam e vinculam certos discursos sensacionalistas de temor a toda população. O objetivo do presente trabalho é apresentar um estudo acerca do modo como a retórica do medo, patente no mundo histórico que é o nosso, potencializa o medo de modo a criar um solo propício ao surgimento de diferentes comportamentos temerosos. Interessa-nos sobre tudo tematizar o medo segundo a retórica que o potencializa, ou seja, segundo a impessoalidade do mundo que é o nosso. Isso coloca a exigência de tematizarmos o pensamento fenomenológico-hermenêutico de Martin Heidegger, sua ontologia fundamental e sua proposta de análise da essência do mundo contemporâneo. O método documental foi a ferramenta utilizada para visualização do fenômeno da retórica do medo submetida ao jornal Diário de Pernambuco

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A integridade de dutos ganha importância à medida em que o desenvolvimento da indústria expande a malha para transportar líquidos e gases num contexto de aumento das exigências ambientais. Um importante aliado para manutenção da integridade de dutos são reparos de materiais compósitos. Estes materiais apresentam baixa densidade, capacidade de direcionar resistência de acordo com as direções das solicitações, execução de reparo a frio sem necessidade de interromper produção ou grande maquinário. Este trabalho tem como objetivo desenvolver e implementar um algoritmo de elementos finitos que permita avaliar os esforços e a resistência das paredes de um tubos fabricados ou reparados com laminados de material compósito carregados com pressão interna. Entre as vantagens de desenvolver um programa tem-se: agilidade de avaliação, menor custo com licença, menores exigências computacionais, possibilidade de desenvolver o programa e o melhor entendimento da modelagem dos fenômenos. Utiliza-se como entrada do programa o diâmetro do duto, pressão interna e parâmetros do laminado. A modelagem em elementos finitos é realizada a partir da teoria clássica de laminados. Aplicando o carregamento resultante da pressão interna, determina-se os deslocamentos e são calculadas as tensões e aplicado o critério de falha de Tsai-Hill em cada camada. Estudos experimentais e numéricos encontrados na literatura foram simulados com o programa gerado e os resultados para propriedades do laminado, tensões nos dutos e pressão de ruptura apresentam concordância com os resultados da literatura.O programa ainda tem sua estrutura modificada para encontrar a pressão de falha a partir dos dados do laminado. O programa implementado permite uma avaliação rápida de resistência do reparo e possibilita avaliar rapidamente a resposta a mudanças nos parâmetros de projeto do laminado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar de serem intensamente estudados em muitos países que caminham na vanguarda do conhecimento, os métodos sem malha ainda são pouco explorados pelas universidades brasileiras. De modo a gerar uma maior difusão ou, para a maioria, fazer sua introdução, esta dissertação objetiva efetuar o entendimento dos métodos sem malha baseando-se em aplicações atinentes à mecânica dos sólidos. Para tanto, são apresentados os conceitos primários dos métodos sem malha e o seu desenvolvimento histórico desde sua origem no método smooth particle hydrodynamic até o método da partição da unidade, sua forma mais abrangente. Dentro deste contexto, foi investigada detalhadamente a forma mais tradicional dos métodos sem malha: o método de Galerkin sem elementos, e também um método diferenciado: o método de interpolação de ponto. Assim, por meio de aplicações em análises de barras e chapas em estado plano de tensão, são apresentadas as características, virtudes e deficiências desses métodos em comparação aos métodos tradicionais, como o método dos elementos finitos. É realizado ainda um estudo em uma importante área de aplicação dos métodos sem malha, a mecânica da fratura, buscando compreender como é efetuada a representação computacional da trinca, com especialidade, por meio dos critérios de visibilidade e de difração. Utilizando-se esses critérios e os conceitos da mecânica da fratura, é calculado o fator de intensidade de tensão através do conceito da integral J.