928 resultados para Formalismo dos fenômenos críticos
Resumo:
Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.
Resumo:
O vapor dágua está presente na exaustão veicular em quantidades significativas e, nas condições de operação do catalisador automotivo, essa espécie pode promover uma série de fenômenos térmicos que podem reduzir a vida útil do sistema. Dentro desse contexto, essa dissertação tem como objetivo estudar os efeitos da desativação hidrotérmica nas propriedades físico-químicas e estruturais, e no desempenho de três catalisadores automotivos comerciais à base de Pd/Rh, designados A, C e E. Esses sistemas foram submetidos a tratamento térmico a 1000C por 12 horas, sob três tipos de correntes gasosas, com a seguinte composição: N2, 14% H2O/N2 e 18% H2O/N2. A caracterização dos catalisadores consistiu das seguintes técnicas: FRX, ICP-OES, ATG-ATD, fisissorção de N2, TPD-H2 e TPR. A partir dos resultados obtidos para as amostras envelhecidas, foram constatados vários fenômenos característicos da degradação térmica, como sinterização da alumina e do óxido misto CeO2-ZrO2, transições de fases cristalina na alumina e segregação de fases no óxido misto. A avaliação da atividade catalítica foi realizada com base na reação de redução do NO pelo CO, e nas reações de oxidação do CO e do C3H8. Para os catalisadores C e E, os envelhecimentos acarretaram em perda de atividade, e os resultados da avaliação catalítica apresentaram uma boa correlação com as propriedades texturais e a redutibilidade desses catalisadores. Em contrapartida, para o catalisador A, os tratamentos térmicos o ativaram para todas as reações. Apesar de os três sistemas terem apresentado boa atividade frente à redução do NO pelo CO, foi observada, para todas as amostras, a formação indesejável de N2O em quantidades significativas, indicando que eles foram pouco seletivos na faixa de temperatura analisada
Resumo:
O presente trabalho tem como objetivo observar a atuação da equipe de enfermagem na atenção básica, buscando caracterizar como se dão as interações com o usuário, e priorizando a escuta como requisito da integralidade. Para que os profissionais de saúde percebam, identifiquem o sofrimento do usuário, torna-se necessário uma interação maior entre eles, ou seja, um diálogo. Para o exercício de um bom diálogo, faz-se necessário uma escuta atenta, buscando-se detalhes que podem estar ocultos nas falas, além do acolhimento e o vínculo, que são atributos responsáveis pela prática da assistência integral. A redução do sujeito a objeto tem sido a realidade das unidades básicas de saúde, lembrando que os usuários que procuram os serviços de saúde possuem uma vida fora dali, com estilos variados. O modo de falar, os cuidados prestados variam conforme a rotina de cada um. A pesquisa teve como suporte teórico a integralidade como exercício de boas práticas e produção de cuidado, enfatizando-se a escuta. Trata-se de um estudo de caráter qualitativo com abordagem etnográfica, que permite ao pesquisador fazer uma leitura detalhada da realidade. Os dados foram coletados através da observação participante e acompanhamento das atividades realizadas pela equipe de enfermagem de duas unidades básicas do município de Paranavaí-PR, e os achados foram devidamente registrados em diário de campo. Após as observações, os profissionais foram entrevistados. Participaram como sujeitos da pesquisa sete técnicos de enfermagem e um profissional administrativo. O material foi submetido à técnica de análise de conteúdo. A análise compreendeu as seguintes etapas: pré-análise, que se refere à leitura inicial de todo o conteúdo e organização dos dados, e análise, que compreende categorização e tratamento do material. Foram identificados pontos críticos na assistência durante a observação, como a falta do acolhimento, desorganização do serviço, a falta do exercício da escuta e o trabalho mecanizado. Nas entrevistas, foi possível desenvolver categorias com os relatos coletados, destacando-se a sensibilidade ao paciente, procura do melhor, falta de tempo e sentido da escuta. Conclui-se que a integralidade ainda é uma utopia na realidade dos serviços de saúde, e que a escuta é raramente utilizada e seu sentido tão pouco conhecido. A desorganização do serviço de saúde nas unidades básicas e o aparente conformismo dos profissionais frente a suas atividades são fatores predisponentes ao não-exercício da escuta, dificultando ainda mais a prática da integralidade. Considera-se fundamental a reflexão, por parte dos profissionais, e solução dos problemas encontrados, através de conscientização e sensibilização, modificando a assistência através de reorganizações do trabalho.
Resumo:
[es]Podemos encontrar las ecuaciones de Boussinesq en la descripción de playas, rios y lagos. Estas ecuaciones estudian la dinámica de las aguas poco profundas como las ecuaciones “ Korteweg-deVries (KdV)". Sin embargo, a pesar de ser más conocidas, las ecuaciones de KdV, no son capaces de modelar olas solitarias propagándose en distintas direcciones. Entre muchas otras aplicaciones de las ecuaciones de Boussinesq destaca la de modelar olas de tsunamis. Estos tipos de olas ya son perfectamente descritos por las ecuaciones de Navier Stokes, pero todavía no existen técnicas que permitan resolverlas en un dominio tridimensional. Para ello se usan las ecuaciones de Boussinesq, pensadas como una simplificación de las ecuaciones de Navier Stokes. Los años 1871 y 1872 fueron muy importantes para el desarrollo de las ecuaciones de Boussinesq. Fue en 1871 cuando Valentin Joseph Boussinesq recibió el premio de la “Academy of Sciences”, por su trabajo dedicado a las aguas poco profundas. Ahí fue donde Boussinesq introdujo por primera vez los efectos dispersivos en las ecuaciones de Saint-Venant. Por ello, se puede decir que las ecuaciones de Boussinesq son más completas físicamente que las ecuaciones de Saint-Venant. Las ecuaciones de Boussinesq contienen una estructura hiperbólica (al igual que las ecuaciones no lineales de aguas poco profundas) combinada con derivadas de orden elevado para modelar la dispersión de la ola. Las ecuaciones de Boussinesq pueden aparecer de muchas formas distintas. Dependiendo de como hayamos escogido la variable de la velocidad podemos obtener un modelo u otro. El caso más usual es escoger la variable velocidad en un nivel del agua arbitrario. La efectividad de la ecuación de Boussinesq seleccionada variará dependiendo de la dispersión. Una buena elección de la variable velocidad puede mejorar significativamente la modelización de la propagación de ondas largas. Formalmente, como veremos en el capítulo 1, podemos transformar términos de orden elevado en términos de menor orden usando las relaciones asintóticas. Esto nos proporciona una forma elegante de mejorar las relaciones de dispersi\'on. Las ecuaciones de Boussinesq más conocidas son las que resolveremos en el capítulo 2. En dicho capítulo veremos la ecuación cúbica de Boussinesq, que sirve para describir el movimiento de ondas largas en aguas poco profundas; las ecuaciones de Boussinesq acopladas, que describen el movimiento de dos fluidos distintos en aguas poco profundas (como puede ser el caso de un barco que desprende accidentalmente aceite, el aceite va creando una capa que flota encima de la superficie del agua); la ecuación de Boussinesq estándar, que describe un gran número de fenómenos de olas dispersivas no lineales como la propagaci\ón en ambas direcciones de olas largas en la superficie de aguas poco profundas. Pero en olas de longitud de onda corta presenta una inestabilidad y la ecuación es incorrecta para el problema de Cauchy, por ello Bogolubsky propuso la ecuación de Boussinesq mejorada. Esta ecuación es la última que estudiaremos en el capítulo 2 y es una ecuación físicamente estable, correcta para el problema de Cauchy y además como veremos en el capítulo 3, apropiada para las simulaciones numéricas. Como ya indicado, en el capi tulo 1 deduciremos las ecuaciones de Boussinesq a partir de las ecuaciones físicas del flujo potencial. El objetivo principal es deducir dos modelos de ecuaciones de Boussinesq acopladas y obtener su relación de dispersión. Para llegar a ello, se usa un método de la expansión asintótica de la velocidad potencial en términos de un pequeño parámetro. De esta manera conseguimos dos modelos distintos, cada uno asociado a uno de los dos modelo de disipación que hemos establecido. Por último dado que las ecuaciones siempre vienen dadas en variables dimensionales, volveremos a la notación dimensional para analizar la relación de dispersión de las ecuaciones de Boussinesq disipativas. En el capí tulo 2 pasaremos a su resolución analítica, buscando soluciones de tipo solitón. Introduciremos el método de la tangente hiperbólica, muy útil para encontrar soluciones exactas de ecuaciones no lineales. Usaremos este método para resolver la ecuación cúbica de Boussinesq, un sistema de ecuaciones acopladas de Boussinesq, la ecuación estandar de Boussinesq y la mejorada. Los sistemas que aparecen en la aplicación del método de la tangente hiperbólica estan resueltos usando el software Mathematica y uno de ellos irá incluido en el apéndice A. En el capíulo 3 se introduce un esquema en diferencias finitas, que sirve para convertir problemas de ecuaciones diferenciales en problemas algebraicos fácilmente resolubles numéricamente. Este método nos ayudaráa estudiar la estabilidad y a resolver la ecuación mejorada de Boussinesq numéricamente en dos ejemplos distintos. En el apéndice B incluiremos el programa para la resolución numérica del primer ejemplo con el Mathematica.
Resumo:
Nos últimos anos, temos nos deparado com a difusão maciça e a popularização crescente de descrições biológicas para aspectos outrora pensados como mentais, sociais, ou relacionais. Visível em diversas arenas leigas e científicas, esta tendência freqüentemente elege o cérebro como o órgão privilegiado da sua atenção. A cada semana é divulgada uma nova localização cerebral correlacionada os mais variados aspectos comportamentais e ou de personalidade. Acompanhando este movimento, é notável o esforço intelectual e financeiro despendido nos últimos anos no campo da saúde mental, no sentido de fazer avançar pesquisas cujo foco central é a descoberta das bases neurobiológicas dos transtornos mentais. Esta tendência apontaria na direção de uma fusão entre a psiquiatria e a neurologia em uma disciplina única, de teor fisicalista, chamada por alguns de cerebrologia. Dentre os acontecimentos que serviram de alicerce para a legitimação e a popularização desta tendência, o desenvolvimento nas últimas décadas de novas técnicas e tecnologias de visualização médica, como a tomografia por emissão de pósitrons (PET scan) e a ressonância magnética funcional (fMRI), foi fundamental. Elas permitiram a construção de imagens das mais diversas categorias nosográficas construídas no campo psiquiátrico, veiculando tacitamente uma série de pressupostos e promessas. Malgrado o imaginário cultural sustentado por estas tecnologias e todo o esforço despendido nas últimas décadas no sentido de se tentar localizar os marcadores biológicos dos transtornos psiquiátricos, não há, até o presente momento, nenhum resultado conclusivo que autorize o diagnóstico por imagem de nosografias como a esquizofrenia, a depressão, e muito menos o jogo patológico. Apesar de todo o alarde midiático e dos montantes milionários direcionados para pesquisas nesta área, os resultados concretos obtidos até agora não estão livres das mais ferozes controvérsias. Entretanto, ainda que estejamos muito longe da construção de mapas precisos para as perturbações mentais é espantoso o poder de convencimento que as neuro-imagens comportam na atualidade. Os scans são exibidos como verdades visuais, ou fatos acerca das pessoas e do mundo, numa proporção muito superior aos dados que apresentam. Alguns críticos chamam este aspecto de neurorealismo, ou de retórica da auto-evidência. A intenção deste trabalho é problematizar o poder persuasivo que as neuro-imagens detém na contemporaneidade, especialmente quando utilizadas com a finalidade diagnóstica no campo da saúde mental. Se estas imagens transmitem uma ideia de neutralidade, transparência imediata e auto-evidência, este trabalho almeja inseri-las num contexto sócio-histórico, a partir do qual puderam adquirir sentido, familiaridade e valor de verdade. O ponto de partida é o de que elas estão localizadas no cruzamento de dois movimentos históricos distintos: o das ilustrações médicas, em sua relação com a produção de conhecimento objetivo; e o das pesquisas acerca da localização no córtex cerebral de comportamentos complexos e traços de personalidade. Além de estabelecer algumas condições históricas de possibilidade para a emergência de um neo-localizacionismo cerebral, mediado pelas novas tecnologias de imageamento, pretende-se enfatizar algumas descontinuidades com projetos anteriores e marcar a influência do contexto cultural da atualidade para o sucesso e poder persuasivo deste tipo de tecnologia.
Resumo:
A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.
Resumo:
Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.
Resumo:
Este trabalho tem como objeto as trajetórias da medicina hipocrática no pensamento médico ocidental. Através da análise bibliográfica de textos e documentos, objetivou-se compreender como os conceitos de vida e do processo saúde-doença, partindo de uma mesma raiz, foram se definindo em sistemas médicos baseados em paradigmas distintos. Para tanto, inicialmente, procurou-se levantar e analisar o nascimento e desenvolvimento da medicina hipocrática, com ênfase em seu método de observação clínica e em sua proposta terapêutica. Em seguida, foi realizada a análise do histórico e das dimensões das racionalidades médicas homeopatia e biomedicina, avaliando o papel dos conceitos sobre physis, vida e vis medicatrix naturae em cada paradigma. Na abordagem dos referidos conceitos, Canguilhem e Jacob foram os principais apoios teóricos. Conclusões: para a medicina homeopática, tal como para a medicina hipocrática, o adoecer e o curar são processo de equilíbrio e desequilíbrio que fazem parte da vida do ser humano e, por isso, também considerados único e individuais. Hahnemann criou uma terapêutica baseada no reconhecimento da pessoa enferma como um indivíduo único, singular, dotado de capacidade automantenedora e autorrestauradora, levando em conta a ideia de natureza que se manifesta em singularidades plurais a cada momento e, portanto, a prescrição medicamentosa é individualizada e mobilizadora da vis medicatrix naturae. A racionalidade médica homeopática compartilha dos conceitos hipocráticos tanto em sua doutrina, quanto nos seus sistemas diagnóstico e terapêutico. Apesar de a biomedicina ter em suas bases a medicina hipocrática, ao se tornar uma ciência das doenças, não mais compartilhou dos conceitos hipocráticos que permitiriam uma abordagem de saúde positiva e de um enfoque terapêutico baseado no sujeito como um ser único. A homeopatia afirma uma medicina que tem como categoria central de seu paradigma a categoria saúde e não a doença, consideradas fenômenos da vida. A vida, assim valorizada, se colocaria no caminho da Grande Saúde, afirmando-se em seu potencial criativo e capaz de transmutar valores.
Resumo:
O presente estudo tem como objetivo geral traçar um perfil das escolhas léxico-gramaticais da escrita em inglês de um grupo de aprendizes brasileiros na cidade do Rio de Janeiro, ao longo dos anos de 2009 a 2012, através da análise de sua produção de quadrigramas (ou blocos de quatro itens lexicais usados com frequência por vários aprendizes) em composições escritas como parte da avaliação final de curso. Como objetivo específico, a pesquisa pretendeu analisar se os quadrigramas produzidos estavam dentre aqueles que haviam sido previamente ensinados para a execução da redação ou se pertenceriam a alguma outra categoria, isto é, quadrigramas já incorporados ao uso da língua ou quadrigramas errôneos usados com abrangência pela população investigada. Para tal, foram coletadas composições escritas por aprendizes de mesmo nível de proficiência de várias filiais de um mesmo curso livre de inglês na cidade do Rio de Janeiro. Em seguida, essas composições foram digitadas e anotadas para constituírem um corpus digital facilmente identificável em termos do tipo e gênero textual, perfil do aprendiz, filial e área de origem do Rio de Janeiro. O estudo faz uso de preceitos e métodos da Linguística de Corpus, área da Linguística que compila grandes quantidades de textos e deles extrai dados com o auxílio de um programa de computador para mapear uso, frequência, distribuição e abrangência de determinados fenômenos linguístico ou discursivo. O resultado demonstra que os aprendizes investigados usaram poucos quadrigramas ensinados e, coletivamente, preferiram usar outros que não haviam sido ensinados nas aulas específicas para o nível cursado. O estudo também demonstrou que quando o gênero textual faz parte de seu mundo pessoal, os aprendizes parecem utilizar mais quadrigramas previamente ensinados. Isto pode querer dizer que o gênero pode influenciar nas escolhas léxico-gramaticais corretas. O estudo abre portas para se compreender a importância de blocos léxico-gramaticais em escrita em L2 como forma de assegurar fluência e acuracidade no idioma e sugere que é preciso proporcionar maiores oportunidades de prática e conscientização dos aprendizes quanto ao uso de tais blocos
Resumo:
O período de transição da década de 20 para a de 30 dentro do Modernismo brasileiro é muito estudado por críticos. Por um lado, defende-se a ideia de que ambas as décadas pertencem a um mesmo movimento, mas com perspectivas diferentes. Por outro, cogita-se que os dois momentos constituem movimentos literários distintos. Para João Luiz Lafetá, a geração de 20 e a de 30 fazem parte de um mesmo movimento, contudo, há uma distinção entre elas: a década de 20 caracterizou-se por uma ênfase em um projeto estético, em que predomina o trabalho com a língua e a sua forma, e a geração de 30, por uma proeminência de um projeto ideológico, que priorizou a discussão social. Luís Bueno defende a ideia de que a literatura produzida nos dois decênios se comportou de forma muito divergente e que as duas décadas não são parte de um mesmo momento literário, ainda que se reconheça o valor da geração de 20 para a subsequente. Nesse trabalho, veremos como na obra de Graciliano Ramos esses dois projetos que Lafetá propõe são indissociáveis, sobretudo pelo trabalho do autor com a metalinguagem, entendida como um processo presente em todos os atos da consciência, como defende Harald Weinrich. Observar-se-á em São Bernardo e Vidas secas como a reflexão metalinguística por meio dos narradores e personagens evidencia o trabalho com a língua estética e ideologicamente
Resumo:
Na primeira fase da redemocratização brasileira, havia amplo consenso em torno da questão social: ela deveria ser tratada pela imposição de restrições ao capitalismo, a partir da ampliação do assalariamento protegido e do Estado Social. O problema de pesquisa da tese é o declínio de tal projeto: teríamos cada vez mais um contexto no qual a questão social é formulada não como de déficit de proteções das pessoas perante o capitalismo, mas como déficit de requisitos dos agentes para competirem adequadamente no mercado. A intuição fundamental da tese é de que somente seria possível explicar a substituição de uma narrativa pela outra, através da observação de novas formas de valorização dos capitais, que teriam contribuído para erodir convenções cognitivas sobre as quais a crítica ao capitalismo costumava se apoiar. Nos capítulos um e dois, busca-se caracterizar a amplitude e a radicalidade dos enunciados críticos que proliferavam durante a redemocratização. A revisão daquele período denota que as reações ao contexto ditatorial ensejaram um eixo crítico dual: o de renovação cultural (que nomeamos ativismo autonomista) e o eixo da reinvenção do social, no qual a crítica ao passado era meramente corretiva, na medida em que mantinha o assalariamento protegido como centro. No final do segundo capítulo, busca-se explicitar que a crítica social teria arrefecido quando práticas enfraquecedoras da regulação salarial passaram a ser justificadas a partir do mesmo léxico que havia sido utilizado para se desqualificar a Ditadura e a tradição populista. O capítulo três procura explicitar processos de deslocamento dos capitais que foram decisivos para o jogo pós-salarial Brasil: a dívida pública, a exploração em rede (fazendo do setor automotivo um estudo de caso) e a inflação. O quarto capítulo trata da proliferação de ocupações não-salariadas como um produto do próprio contexto de aversão às hierarquias e dependências da redemocratização, mas realçando o efeito que a busca do auto-empresariamento viria trazer em termos de legitimar um capitalismo livre de regulações coletivas. Em suma, a pesquisa aponta para o declínio da experiência de classe trabalhadora ampliada que vinha sendo gestada no período da redemocratização, fenômeno que induziria o enfraquecimento da crítica social aos efeitos potencialmente degradantes da concorrência laboral e da mercantilização da vida social.
Resumo:
Esta tese de doutorado parte da perspectiva inicial de que a gramaticalização se restringe a tratado sobre itens lexicais ou discursivos que se tornam itens gramaticais (o que a enquadraria dentro da Teoria da Variação, inserta esta dentro da Pesquisa Sociolinguística), mas segue em direção a um salto epistemológico que remodele aquela perspectiva, ampliando-a a patamar do qual ela pode ser observada como teoria autônoma, investigativa de fenômenos limítrofes e nem sempre discretos entre linguagem e língua, discurso e texto, descrição e prescrição, oralidade e escrita, léxico e gramática. Desse modo, propugna-se pela visão epistemológica do tema, conduzido, até aqui, de modo puramente ontológico, circunscrito a um (e apenas um) dos muitos espectros que se podem alcançar com a aludida ampliação àquele que vem sendo perquirido como tratado, porém que, segundo se pretende demonstrar, pode e deve ser expandido à malha de uma teoria geral, qual seja a Teoria Geral da Gramaticalização: trata-se, aqui, de seu objetivo geral. Para esse propósito, vale-se a tese de filósofos da linguagem que atuaram sobre essa faculdade ou capacidade humana de forma direta ou indireta desde os seus primórdios ocidentais (como Sócrates, Platão e Aristóteles), passando pelos pensadores mais incisivamente preocupados com os aspectos cognitivos e interativos da linguagem e da língua (como Hegel, Husserl, Saussure, Sapir, Bloomfield, Wittgenstein, Derrida, Chomsky, Labov, Charaudeau, Maingueneau, Ducrot, Coseriu), além de ser necessária a incursão à Gramaticografia mais estrita (como a empreendida por Dionísio da Trácia, Varrão, Arnault e Lancelot, Nebrija, Jerônimo Soares Barbosa, Eduardo Carlos Pereira, Said Ali, Bechara), e, naturalmente, a contribuição filosófica dos pesquisadores sobre a gramaticalização (como Meillet, Vendryès, Bréal, Kurilowicz, Traugott, Heine, Hopper, Lehmann). Uma vez que se tenha mostrado ser verossímil aceitar-se a gramaticalização como teoria autônoma, esta tese pretende legar-lhe o papel instrumental de metodologia auxiliar a muitas entre as que ora se empreendem quando se trata de pesquisas em campos cuja ocupação é a linguagem e a língua: trata-se, aqui, de seu objetivo específico. Para essa duplicidade de metas ou objetivos, será necessário compreender conceitos, categorias e protótipos oriundos da Filosofia da Ciência (Epistemologia), do contraste entre ciências da linguagem e outros ramos do saber, da imersão em Gramaticologia e Gramaticografia (e, em alguns aspectos, em Gramatização e Gramatologia) referentes à Língua Portuguesa, da defesa, enfim, de que o ensino da Gramática Formal (ou Normativa) do idioma privilegia a acepção reflexiva e ativa (plena) dos usos ou atos a que a linguagem só pode chegar por meio do domínio da língua em toda a sua tessitura epistemológica, que gera comunicação e expressividade, raciocínio e emotividade, indo da concretude do discurso ou da oralidade à abstração da entidade pouco ou nada material, que, por sua vez, é mais nitidamente representada pela escrita, seu estágio por assim dizer de forma ainda mais pura, conquanto não excludente da substancialidade com que dialoga de modo incessante no seu constante e dialético passado-futuro ou diversidade-homogeneidade (tese e antítese) de onde emerge o seu presente ou a sua unidade (síntese)
Resumo:
Este trabalho consiste em investigar as marcas do pensamento da desconstrução, em especial da filosofia de Jacques Derrida, nos ensaios críticos de Silviano Santiago. No entanto, o objetivo não se esgota em uma visada meramente expositiva, ou seja, apenas colocar em relevo as noções propostas pelo filósofo argelino em suas obras que por ventura apareçam nos ensaios selecionados crítico literário. Mais do que isso, pretende-se mostrar como a articulação desconstrutora é útil ao crítico na discussão de seus próprios temas, principalmente a questão da dependência cultural. Foram selecionados ensaios de suas coletâneas publicadas no fim do século XX e início do XXI, de modo a evidenciar um eixo temático que perpassa a sua obra, voltada a pensar os esquemas cristalizados de trocas culturais, a partir de questionamentos amplos que visam a subverter as hierarquias estabelecidas, abrindo espaço para a alteridade do outro como diferença, mediante o aporte da noção derridiana de différance. No que concerne especificamente aos estudos literários, serão apresentadas as leituras que Santiago faz das estratégias estéticas que reiteram, deslocam ou reiteram para deslocar os paradigmas de globalização, considerando a literatura como uma modalidade discursiva inserida no campo mais amplo da cultura, afinando sua discussão com as estratégias desconstrutoras de Derrida
Resumo:
Ao contrário do período precedente de criação da chamada ciência moderna, o século XVIII parece não desempenhar um papel fundamental no desenvolvimento da física. Na visão de muitos autores, o século das luzes é considerado como uma fase de organização da mecânica que teve seu coroamento com as obras de Lagrange, imediatamente precedidas por Euler e dAlembert. Muitos autores afirmam que na formulação da mecânica racional houve uma eliminação gradual da metafísica e também da teologia e que o surgimento da física moderna veio acompanhado por uma rejeição da metafísica aristotélica da substância e qualidade, forma e matéria, potência e ato. O ponto central da tese é mostrar que, no século XVIII, houve uma preocupação e um grande esforço de alguns filósofos naturais que participaram da formação da mecânica, em determinar como seria possível descrever fenômenos através da matemática. De uma forma geral, a filosofia mecanicista exigia que as mudanças observadas no mundo natural fossem explicadas apenas em termos de movimento e de rearranjos das partículas da matéria, uma vez que os predecessores dos filósofos iluministas conseguiram, em parte, eliminar da filosofia natural o conceito de causas finais e a maior parte dos conceitos aristotélicos de forma e substância, por exemplo. Porém, os filósofos mecanicistas divergiam sobre as causas do movimento. O que faria um corpo se mover? Uma força externa? Uma força interna? Força nenhuma? Todas essas posições tinham seus adeptos e todas sugeriam reflexões filosóficas que ultrapassavam os limites das ciências da natureza. Mais ainda: conceitos como espaço, tempo, força, massa e inércia, por exemplo, são conceitos imprescindíveis da mecânica que representam uma realidade. Mas como a manifestação dessa realidade se torna possível? Como foram definidos esses conceitos? Embora não percebamos explicitamente uma discussão filosófica em muitos livros que versam sobre a mecânica, atitudes implícitas dessa natureza são evidentes no tratamento das questões tais como a ambição à universalidade e a aplicação da matemática. Galileu teve suas motivações e suas razões para afirmar que o livro da natureza está escrito em liguagem matemática. No entanto, embora a matemática tenha se tornado a linguagem da física, mostramos com esta tese que a segunda não se reduz à primeira. Podemos, à luz desta pesquisa, falarmos de uma mecânica racional no sentido de ser ela proposta pela razão para organizar e melhor estruturar dados observáveis obtidos através da experimentação. Porém, mostramos que essa ciência não foi, como os filósofos naturais pretendiam que assim fosse, obtidas sem hipóteses e convenções subjetivas. Por detrás de uma representação explicativa e descritiva dos fenômenos da natureza e de uma consistência interna de seus próprios conteúdos confirmados através da matemática, verificamos a presença da metafísica.
Resumo:
Pretendemos com esse trabalho analisar as relações entre as Mineradoras e a sociedade civil local das regiões mineradoras, por meio principalmente da Teoria da Dependência. Tentamos refletir sobre os efeitos da atividade minério-exportadora nas populações locais e as maneiras de manutenção dessa ordem social. O estudo pode ser dividido em dois que se interrelacionam: 1) no primeiro, empreendemos uma discussão sobre o subdesenvolvimento, a dependência e a mineração num país semiperiférico como o Brasil; 2) no segundo, analisamos, especificamente, a conjuntura da instalação da Mina Apolo da Vale. Esta parte da pesquisa está baseada no trabalho de campo e na análise das entrevistas com os envolvidos no debate sobre a Mina Apolo e o Parque Nacional do Gandarela. Ao buscarmos nas relações de classe da região as razões para a manutenção da atividade mineira-exportadora, intentamos discutir o tipo de desenvolvimento que a mineração engendra. Partimos da hipótese de que são inúmeros os danos causados pela mineração à sociedade civil local, principalmente a longo e médio prazo. A população local e as classes populares não mobilizam um discurso contra-hegemônico, ou mesmo questionador, de ampla aceitação na sociedade civil local porque o discurso do desenvolvimento minerador e a dependência econômica da região frente à mineração desmobilizam os movimentos críticos e contrários às mineradoras. Esta dependência econômica é traduzida em dependência sócio-política.