1000 resultados para doutrina do método


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objeto as trajetórias da medicina hipocrática no pensamento médico ocidental. Através da análise bibliográfica de textos e documentos, objetivou-se compreender como os conceitos de vida e do processo saúde-doença, partindo de uma mesma raiz, foram se definindo em sistemas médicos baseados em paradigmas distintos. Para tanto, inicialmente, procurou-se levantar e analisar o nascimento e desenvolvimento da medicina hipocrática, com ênfase em seu método de observação clínica e em sua proposta terapêutica. Em seguida, foi realizada a análise do histórico e das dimensões das racionalidades médicas homeopatia e biomedicina, avaliando o papel dos conceitos sobre physis, vida e vis medicatrix naturae em cada paradigma. Na abordagem dos referidos conceitos, Canguilhem e Jacob foram os principais apoios teóricos. Conclusões: para a medicina homeopática, tal como para a medicina hipocrática, o adoecer e o curar são processo de equilíbrio e desequilíbrio que fazem parte da vida do ser humano e, por isso, também considerados único e individuais. Hahnemann criou uma terapêutica baseada no reconhecimento da pessoa enferma como um indivíduo único, singular, dotado de capacidade automantenedora e autorrestauradora, levando em conta a ideia de natureza que se manifesta em singularidades plurais a cada momento e, portanto, a prescrição medicamentosa é individualizada e mobilizadora da vis medicatrix naturae. A racionalidade médica homeopática compartilha dos conceitos hipocráticos tanto em sua doutrina, quanto nos seus sistemas diagnóstico e terapêutico. Apesar de a biomedicina ter em suas bases a medicina hipocrática, ao se tornar uma ciência das doenças, não mais compartilhou dos conceitos hipocráticos que permitiriam uma abordagem de saúde positiva e de um enfoque terapêutico baseado no sujeito como um ser único. A homeopatia afirma uma medicina que tem como categoria central de seu paradigma a categoria saúde e não a doença, consideradas fenômenos da vida. A vida, assim valorizada, se colocaria no caminho da Grande Saúde, afirmando-se em seu potencial criativo e capaz de transmutar valores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação Método Pocha: Práticas de Ensino em Performance para Cruzadores de Fronteiras é uma reflexão sobre possibilidades educativas em performance art. Pesquisa que tem como enfoque o Método Pocha metodologia de ensino em performance desenvolvida pelo coletivo La Pocha Nostra. Nesse sentido, busca-se identificar as propostas metodológicas, procedimentos, temáticas, apontamentos conceituais que sustentam as práticas pedagógicas do La Pocha Nostra, e investigar o processo formativo/educativo por vias da arte da performance. O recorte da presente abordagem prioriza performances que habitem interstícios e espaços fronteiriços. Compreende o performer como um cronista do seu tempo/espaço, que reflete e problematiza os fluxos, formações e composições contemporâneas. As práticas, procedimentos e conceitos desenvolvidos nos programas performativos do coletivo La Pocha Nostra são pensados no contexto da pesquisa enquanto modo de descolonizar nossos corpos e criar complicações em torno de representações vigentes, ampliando noções de identidade e diferença em seu lugar de trânsito: o corpo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente pesquisa trata da análise da fundação da Neurologia. A maioria das obras que abordam o assunto a partir de uma perspectiva histórica, sobretudo, aquelas que privilegiam uma visão positivista, para a qual a investigação caminharia em direção a um ponto estático, tendem a alcançar o médico inglês seiscentista, Thomas Willis, como o inconteste precursor dessa já estabelecida especialidade médica. Nossa proposta é a de desconstruir essa ideia. A nosso ver, a historicidade do discurso científico estaria sempre em constante expansão e também em uma contínua transformação, pois diferentemente do ideal positivista, o instaurador do que Foucault designava como cientificidade não seria o descobridor de um objeto dado desde sempre, na medida em que seria enganoso supor uma história natural de um objeto cultural o objeto da história das ciências. Resta-nos, portanto, tentar compreender o sentido em que Willis funda o que ele mesmo denominava Doutrina dos Nervos. Entendemos que Willis instituiu um novo arquivo audiovisual, ou seja, uma nova articulação entre o visível e o enunciável, no que tange aos nervos. Propomos, enfim, que no horizonte da fundação a nova imbricação entre forma de representação e forma de vida emerge no mesmo processo em que Willis se consagra como um autor médico e cientista dos nervos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Consensos doutrinários acerca da novidade da proteção do ser humano por declarações de direito internas e internacionais e por constituições especificamente pela constituição Brasileira de 1988 - conformaram o ponto de partida desta pesquisa. Estabeleceu-se, inicialmente, um problema teórico que buscava sistematizar no direito internacional privado o impacto da suposta revolução teórica vivenciada pelo direito nos últimos séculos entendendo-se que a doutrina conflitual brasileira não havia desenvolvido parâmetros claros aos contornos da proteção do homem em sua esfera. Cumpridos os requisitos metodológicos relacionados à apresentação de hipótese a problema específico, o aprofundamento das pesquisas mostrou-se surpreendente: a hipótese mostrava-se inconsistente. Adotou-se, assim, o prisma de sua negação. Percebeu-se que, de fato, o ser humano se encontra hoje no centro do direito, mas que no direito internacional privado a novidade anunciada não se mostrava recente e que o deslumbramento com a dignidade humana falseava na técnica conflitual sua razão de ser originária. O trabalho foi realizado levando-se em conta o método dedutivo-indutivo de pesquisa a partir da utilização das doutrinas do direito internacional privado, do discurso da proteção do homem e das teorias constitucionais como instrumento de verificação da hipótese proposta ao problema inicialmente apresentado. A inovação do estudo realizado não se encontra, assim, necessariamente em seu conteúdo, mas na sistematização teórica da relação existente entre a doutrina da proteção do indivíduo, incorporada definitivamente ao direito constitucional brasileiro atual, e o direito internacional privado. Buscou-se demonstrar que o impacto da proteção do homem na disciplina deve ser entendido como um diálogo e que a técnica conflitual não seria meramente induzida pelos direitos humanos fundamentais, mas também indutora de seu reconhecimento e consagração. O trabalho foi dividido em três partes distintas, mas interdependentes. Na primeira delas, apresentaram-se as bases teóricas da pesquisa. Foram organizadas, nesse ponto, as premissas consideradas essenciais ao avanço da investigação. A segunda seção adota a classificação predominante na doutrina brasileira para o objeto do direito internacional privado para sistematizar a análise do tema em seu viés prático. Na terceira seção, demonstra-se de que forma os resultados parciais obtidos acabaram por negar paulatinamente a hipótese inicial fixada. Observou-se que, caso se admitisse que o discurso dos direitos humanos se estabeleceu como axioma informador do direito como um todo há poucas centenas de anos e que a ordem jurídica brasileira apenas protegeu o indivíduo a partir de 1988, o direito internacional privado deveria ser entendido como predecessor, como técnica que antecipou toda essa dinâmica. Mais que isso, concluiu-se que o sobredireito internacional tem sua origem e finalidade maior na proteção dos seres humanos e que não foi apenas induzido pelo discurso da defesa do homem. Conclui-se, por fim, que tratar a proteção do ser humano pelo direito internacional privado como dado contemporâneo ou moderno constituiria, de todo o investigado, grave equívoco que desconsideraria as origens, os fundamentos e as funções da técnica conflitual.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nanopartículas de dióxido de titânio vêm sendo extensamente empregadas como fotocatalisa-dores, já que são eficientes na degradação de diversos poluentes. Visando a obtenção de titâ-nias com diferentes propriedades, realizaram-se sínteses através do método sol-gel, a partir da hidrólise do tetraisopropóxido de titânio (IV) TIPP e seguindo-se os princípios da Química Verde, dispensando-se temperaturas e pressões elevadas. Foi estudada a influência de dife-rentes parâmetros, como: pH, solvente, razão molar álcool/TIPP e ordem de adição dos rea-gentes. Foram obtidas titânias na forma cristalina anatásio, nanométricas, com elevadas áreas superficiais específicas e predominantemente mesoporosas. Visando-se obter titânias com melhores propriedades óticas, isto é, capazes de sofrer a fotoativação pela luz visível, foram sintetizadas titânias dopadas e co-dopadas com os metais ferro e rutênio (Fe3+ e Ru3+) e o a-metal N (N3). A síntese desses materiais também foi realizada através do método sol-gel, sendo a dopagem realizada durante o processo de hidrólise. As amostras foram caracterizadas na forma de pó por difração de raios-X, adsorção-dessorção de nitrogênio, microscopia ele-trônica de varredura e espectroscopia de refletância difusa no UV-Visível. A titânia pura a-presentou como única fase cristalina o anatásio, quando calcinada até 400 C, com a presença de traços de brookita. A partir de 600 C, observou-se o aparecimento da fase rutilo, que em 900C foi a única fase encontrada na titânia. A dopagem com Ru3+dificultou a transformação de fase anatásio para rutilo, ao contrário da dopagem com Fe3+. O processo de co-dopagem acelerou a formação de rutilo, que se apresentou como única fase nas amostras calcinadas a 600 C. As titânias dopadas apresentaram uma leve diminuição na energia de bandgap, sendo os dopantes capazes de deslocar a absorção para o vermelho. Foram realizados testes fotoca-talíticos visando à degradação do azocorante Reactive Yellow 145 com lâmpada de vapor de mercúrio de 125 W a fim de se comparar as atividades fotocatalíticas das titânias puras, dopa-das e co-dopadas, calcinadas a 300C. De todas as titânias sintetizadas, a titânia pura foi a que melhor degradou o corante, tendo um desempenho semelhante ao do TiO2 P25, da Evo-nik

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em engenharia, a modelagem computacional desempenha um papel importante na concepção de produtos e no desenvolvimento de técnicas de atenuação de ruído. Nesse contexto, esta tese investiga a intensidade acústica gerada pela radiação sonora de superfícies vibrantes. De modo específico, a pesquisa enfoca a identificação das regiões de uma fonte sonora que contribuem efetivamente para potência sonora radiada para o campo afastado, quando a frequência de excitação ocorre abaixo da frequência crítica de coincidência. São descritas as fundamentações teóricas de duas diferentes abordagens. A primeira delas, denominada intensidade supersônica (analítica) é calculada via transformadas de Fourier para fontes sonoras com geometrias separáveis. A segunda, denominada intensidade útil (numérica) é calculada através do método dos elementos de contorno clássico para fontes com geometrias arbitrárias. Em ambas, a identificação das regiões é feita pela filtragem das ondas não propagantes (evanescentes). O trabalho está centrado em duas propostas, a saber. A primeira delas, é a apresentação implementação e análise de uma nova técnica numérica para o cálculo da grandeza intensidade útil. Essa técnica constitui uma variante do método dos elementos de contorno (MEC), tendo como base o fato de as aproximações para as variáveis acústicas pressão e velocidade normal serem tomadas como constantes em cada elemento. E também no modo peculiar de obter a velocidade constante através da média de um certo número de velocidades interiores a cada elemento. Por esse motivo, a técnica recebe o nome de método de elemento de contorno com velocidade média (AVBEMAverage Velocity Boundary Element Method). A segunda, é a obtenção da solução forma fechada do campo de velocidade normal para placas retangulares com oito diferentes combinações de condições contorno clássicas. Então, a intensidade supersônica é estimada e comparada à intensidade acústica. Nos ensaios numéricos, a comparação da intensidade útil obtida via MEC clássico e via AVBEM é mostrada para ilustrar a eficiência computacional da técnica aqui proposta, que traz como benefício adicional o fato de poder ser utilizada uma malha menos refinada para as simulações e, consequentemente, economia significativa de recursos computacionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A integridade de dutos ganha importância à medida em que o desenvolvimento da indústria expande a malha para transportar líquidos e gases num contexto de aumento das exigências ambientais. Um importante aliado para manutenção da integridade de dutos são reparos de materiais compósitos. Estes materiais apresentam baixa densidade, capacidade de direcionar resistência de acordo com as direções das solicitações, execução de reparo a frio sem necessidade de interromper produção ou grande maquinário. Este trabalho tem como objetivo desenvolver e implementar um algoritmo de elementos finitos que permita avaliar os esforços e a resistência das paredes de um tubos fabricados ou reparados com laminados de material compósito carregados com pressão interna. Entre as vantagens de desenvolver um programa tem-se: agilidade de avaliação, menor custo com licença, menores exigências computacionais, possibilidade de desenvolver o programa e o melhor entendimento da modelagem dos fenômenos. Utiliza-se como entrada do programa o diâmetro do duto, pressão interna e parâmetros do laminado. A modelagem em elementos finitos é realizada a partir da teoria clássica de laminados. Aplicando o carregamento resultante da pressão interna, determina-se os deslocamentos e são calculadas as tensões e aplicado o critério de falha de Tsai-Hill em cada camada. Estudos experimentais e numéricos encontrados na literatura foram simulados com o programa gerado e os resultados para propriedades do laminado, tensões nos dutos e pressão de ruptura apresentam concordância com os resultados da literatura.O programa ainda tem sua estrutura modificada para encontrar a pressão de falha a partir dos dados do laminado. O programa implementado permite uma avaliação rápida de resistência do reparo e possibilita avaliar rapidamente a resposta a mudanças nos parâmetros de projeto do laminado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar de serem intensamente estudados em muitos países que caminham na vanguarda do conhecimento, os métodos sem malha ainda são pouco explorados pelas universidades brasileiras. De modo a gerar uma maior difusão ou, para a maioria, fazer sua introdução, esta dissertação objetiva efetuar o entendimento dos métodos sem malha baseando-se em aplicações atinentes à mecânica dos sólidos. Para tanto, são apresentados os conceitos primários dos métodos sem malha e o seu desenvolvimento histórico desde sua origem no método smooth particle hydrodynamic até o método da partição da unidade, sua forma mais abrangente. Dentro deste contexto, foi investigada detalhadamente a forma mais tradicional dos métodos sem malha: o método de Galerkin sem elementos, e também um método diferenciado: o método de interpolação de ponto. Assim, por meio de aplicações em análises de barras e chapas em estado plano de tensão, são apresentadas as características, virtudes e deficiências desses métodos em comparação aos métodos tradicionais, como o método dos elementos finitos. É realizado ainda um estudo em uma importante área de aplicação dos métodos sem malha, a mecânica da fratura, buscando compreender como é efetuada a representação computacional da trinca, com especialidade, por meio dos critérios de visibilidade e de difração. Utilizando-se esses critérios e os conceitos da mecânica da fratura, é calculado o fator de intensidade de tensão através do conceito da integral J.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os escoamentos altamente convectivos representam um desafio na simulação pelo método de elementos finitos. Com a solução de elementos finitos de Galerkin para escoamentos incompressíveis, a matriz associada ao termo convectivo é não simétrica, e portanto, a propiedade de aproximação ótima é perdida. Na prática as soluções apresentam oscilações espúrias. Muitos métodos foram desenvolvidos com o fim de resolver esse problema. Neste trabalho apresentamos um método semi- Lagrangeano, o qual é implicitamente um método do tipo upwind, que portanto resolve o problema anterior, e comparamos o desempenho do método na solução das equações de convecção-difusão e Navier-Stokes incompressível com o Streamline Upwind Petrov Galerkin (SUPG), um método estabilizador de reconhecido desempenho. No SUPG, as funções de forma e de teste são tomadas em espaços diferentes, criando um efeito tal que as oscilações espúrias são drasticamente atenuadas. O método semi-Lagrangeano é um método de fator de integração, no qual o fator é um operador de convecção que se desloca para um sistema de coordenadas móveis no fluido, mas restabelece o sistema de coordenadas Lagrangeanas depois de cada passo de tempo. Isto prevê estabilidade e a possibilidade de utilizar passos de tempo maiores.Existem muitos trabalhos na literatura analisando métodos estabilizadores, mas não assim com o método semi-Lagrangeano, o que representa a contribuição principal deste trabalho: reconhecer as virtudes e as fraquezas do método semi-Lagrangeano em escoamentos dominados pelo fenômeno de convecção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Projetos de construção são caracterizados pela escala, complexidade e seus riscos. Não é incomum encontrar planejamento e definição de escopo incompletos o que leva a aumento de custos e prazos. O objetivo desse trabalho é descrever um método de avaliação de riscos de forma a aumentar a previsibilidade da estimativa de custos do empreendimento. Para isso foram utilizados conceitos de gerenciamento de projetos, de simulação e de analise de riscos descritos na literatura para a constituição de um método de análise de riscos em estimativa de custos. A aplicação do método proposto em comparação com o método tradicional traz vantagens no que diz respeito à abrangência da análise. Enquanto pelo método tradicional a análise do empreendimento se faz por meio de suas tarefas, o método proposto analisa de forma distinta o planejamento do empreendimento nas suas três dimensões fundamentais: escopo, prazo e custo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Projetos de construção são caracterizados pela escala, complexidade e seus riscos. Não é incomum encontrar planejamento e definição de escopo incompletos o que leva a aumento de custos e prazos. O objetivo desse trabalho é descrever um método de avaliação de riscos de forma a aumentar a previsibilidade da estimativa de custos do empreendimento. Para isso foram utilizados conceitos de gerenciamento de projetos, de simulação e de analise de riscos descritos na literatura para a constituição de um método de análise de riscos em estimativa de custos. A aplicação do método proposto em comparação com o método tradicional traz vantagens no que diz respeito à abrangência da análise. Enquanto pelo método tradicional a análise do empreendimento se faz por meio de suas tarefas, o método proposto analisa de forma distinta o planejamento do empreendimento nas suas três dimensões fundamentais: escopo, prazo e custo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lehmer (1929) analisa matematicamente o método do passo uniforme para construção de quadrados mágicos de ordem impar. Ele divide sua análise em várias etapas. Na primeira delas, envolvendo a discussão de condições necessárias e suficientes para o preenchimento do quadrado pelo método, o autor afirma que se dois números guardarem entre si uma certa relação, eles serão designados a ocupar a mesma célula do quadrado causando seu não preenchimento. A análise do preenchimento pelo método do passo uniforme envolve a resolução de um sistema linear módulo n. Nesse trabalho, discutimos o comportamento das soluções desse sistema quando o método falha no preenchimento. Como consequência, concluímos que números que guardam a relação mencionada nunca ocupam a mesma célula. A análise das condições necessárias e suficientes para obter quadrados mágicos segundo a definição de Lehmer (1929) envolve a resolução de equações de congruências lineares a duas variáveis. Nesse trabalho, detalhamos os resultados de Lehmer (1929). A análise das condições necessárias e suficientes para obtenção de quadrados mágicos, como são reconhecidos usualmente, também envolve a resolução de equações de congruências lineares a duas variáveis. Discutimos o comportamento das soluções dessas equações para obter diagonais principais mágicas. Como consequência, mostramos que diagonais principais mágicas são obtidas se e somente se as coordenadas iniciais guardarem certas relações

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em que pese o papel fundamental da tributação no âmbito de um Estado Democrático de Direito (Estado Fiscal), no qual o dever de pagar tributos é considerado um dever fundamental, persistem na doutrina e jurisprudência nacionais posicionamentos que associam aos tributos um caráter odioso. Essa repulsa aos tributos decorre de uma ideologia ultraliberal que não se justifica à luz do sistema de direitos e garantias desenhado em nossa Constituição. Essa disseminada postura ideológica influencia de forma equivocada a interpretação e a aplicação de inúmeros institutos e normas tributárias, como ocorre em relação às sanções administrativas não pecuniárias (restritivas de direitos) utilizadas para punir o inadimplemento de uma obrigação tributária principal, denominadas de sanções políticas, morais ou indiretas. A presente dissertação busca analisar de forma crítica como a doutrina nacional e a jurisprudência histórica e atual dos nossos tribunais superiores vêm se posicionando acerca da constitucionalidade dessas sanções, de modo a apontar a inconsistência teórica do entendimento ainda prevalecente, seja à luz da teoria da sanção, seja à luz do neoconstitucionalismo, demonstrando ser juridicamente injustificável considerar inconstitucional de plano uma sanção tributária pelo só fato de ser não pecuniária, já que esse juízo demanda uma análise específica da proporcionalidade em cada caso, atentando-se para os princípios e circunstâncias envolvidos. Além de importantes julgados sobre o tema e posições de renomados autores, são analisadas separadamente as ADIs n. 5.135 e 5.161, que tratam, respectivamente, das polêmicas questões do protesto das Certidões da Dívida Ativa e da vedação da distribuição de lucros e bonificações em empresas com débito em aberto junto à União Federal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tensões residuais são uma das principais causas de falhas em componentes mecânicos submetidos a processos de fabricação. O objetivo do trabalho foi medir as tensões residuais presentes em um tubo quadrado soldado por resistência elétrica de alta frequência e caracterizar microestruturalmente o seu material. Para a caracterização, foram utilizadas técnicas de microscopia óptica (MO), microscopia eletrônica de varredura (MEV) e análise química quantitativa. Para a medição das tensões residuais, foi utilizado o método do furo cego, baseado na norma ASTM E837-08, onde rosetas (strain-gages) são coladas à peça para medir as deformações geradas devido à usinagem de um pequeno furo no local de medição. As deformações foram associadas às tensões residuais através de equações baseadas na Lei de Hooke. A caracterização revelou uma microestrutura composta basicamente de ferrita e perlita, típica de aços com baixo teor de carbono, corroborando com a especificação fornecida pelo fabricante. As tensões residuais encontradas foram trativas e mostraram-se elevadas, com alguns valores acima do limite de escoamento do material.