46 resultados para Transferência de calor (Otimização)
Resumo:
Analisa-se experimentalmente o processo de extração do óleo essencial de rizomas de priprioca (Cyperus articulatus L.) por arraste com vapor d’água saturado, em um protótipo em escala de bancada. Por meio de experimentos estatisticamente planejados, estimam-se as condições ótimas o processo de modo a maximizar as variáveis de resposta rendimento em óleo e teor de mustacona, componente majoritário do óleo essencial de priprioca, em função de variáveis operacionais de entrada do processo. As variáveis independentes e respectivos níveis são: carga de rizomas de priprioca, em gramas (64, 200, 400, 600, 736); granulometria dos rizomas, em milímetros (0,61; 1,015; 1,6; 2,19; 2,58) e tempo de extração, em minutos (40, 60, 90, 120, 140). Utilizando um planejamento composto central, com auxílio do aplicativo Statistica® 7.0, são propostos modelos matemáticos para as respostas em função das variáveis independentes isoladas e de suas combinações. Constata-se que o rendimento em óleo essencial e os teores de mustacona podem ser estimados adequadamente por modelos polinomiais de segunda ordem. São obtidos simultaneamente maiores rendimentos em óleo e teores de mustacona, quando a carga de rizomas varia de 105 a 400 gramas para tempos de extração compreendidos entre 105 e 140 minutos.
Resumo:
O presente trabalho analisa como os instrumentos de comunicação e de transferência de tecnologia criados pela Empresa Brasileira de Pesquisa Agropecuária (Embrapa) no projeto “Tipitamba” foram percebidos. Para tanto realizou-se um estudo de recepção com os agricultores dos municípios de Igarapé-Açu e Marapanim, no nordeste do estado. A pesquisa baseou-se em instrumentos de comunicação criados pela equipe do projeto Tipitamba como cartilhas educativas, calendários, folders e vídeos com o objetivo de ensiná-los a substituir a queima da vegetação, prática agropastoril ou florestal muito usada na Amazônia, pela agricultura sem queima. O estudo também verifica se a adoção da agricultura sem queima, ao longo de duas décadas de existência do projeto Tipitamba, contribuiu ou vem contribuindo para o desenvolvimento local a partir da percepção dos agricultores familiares inseridos nessa prática.
Resumo:
Durante o processo de extração do conhecimento em bases de dados, alguns problemas podem ser encontrados como por exemplo, a ausência de determinada instância de um atributo. A ocorrência de tal problemática pode causar efeitos danosos nos resultados finais do processo, pois afeta diretamente a qualidade dos dados a ser submetido a um algoritmo de aprendizado de máquina. Na literatura, diversas propostas são apresentadas a fim de contornar tal dano, dentre eles está a de imputação de dados, a qual estima um valor plausível para substituir o ausente. Seguindo essa área de solução para o problema de valores ausentes, diversos trabalhos foram analisados e algumas observações foram realizadas como, a pouca utilização de bases sintéticas que simulem os principais mecanismos de ausência de dados e uma recente tendência a utilização de algoritmos bio-inspirados como tratamento do problema. Com base nesse cenário, esta dissertação apresenta um método de imputação de dados baseado em otimização por enxame de partículas, pouco explorado na área, e o aplica para o tratamento de bases sinteticamente geradas, as quais consideram os principais mecanismos de ausência de dados, MAR, MCAR e NMAR. Os resultados obtidos ao comprar diferentes configurações do método à outros dois conhecidos na área (KNNImpute e SVMImpute) são promissores para sua utilização na área de tratamento de valores ausentes uma vez que alcançou os melhores valores na maioria dos experimentos realizados.
Resumo:
A urbanização tem provocado variações locais em diversos elementos climáticos, dentre eles o aumento da temperatura do ar, provocando o aparecimento de porções do espaço com temperaturas maiores do que as áreas ao seu entorno, o que se chama de ilhas de calor urbanas. Dentre as causas do surgimento das ilhas de calor, a retirada da cobertura vegetal é o mais relevante. A finalidade deste trabalho foi identificar, através da técnica de sensoriamento remoto, as ilhas de calor urbanas e as ilhas de frescor urbanas na área continental do Município de Belém, assim como a variação da cobertura vegetal, comparando os resultados dos anos de 1997 e 2008, a fim de revelar uma possível relação entre a variação da cobertura vegetal e as ilhas de calor e ilhas de frescor urbanas. Para desenvolver esta pesquisa, recorreuse a imagens termais do sensor TM para determinação dos valores de temperatura, assim como dados de temperatura do ar observados nas estações: climatológica convencional de Belém (2o. DISME/INMET), meteorológica sinótica de Val-de-Cans e meteorológica sinótica automática de Belém (2o. DISME/INMET). A cobertura vegetal foi determinada também com uso das imagens do sensor TM, com as bandas 3,4 e 5. De acordo com os resultados obtidos, concluiu-se que em 2008 houve um aumento das ilhas de calor urbanas, principalmente nos bairros localizados nas áreas da Avenida Augusto Montenegro e Rodovia Arthur Bernardes, e redução das ilhas de frescor em diversas partes da área continental de Belém, em decorrência da ausência da cobertura vegetal, em relação ao ano de 1997. Também foi possível identificar que na área de estudo, houve uma redução da cobertura vegetal existente em 2008 em comparação a 1997, redução essa que ocorreu principalmente na área que está além da 1ª Légua Patrimonial do município de Belém, no eixo compreendido entre a Avenida Augusto Montenegro e a Rodovia Arthur Bernardes, ampliando a área urbana e o aumento da temperatura, que favoreceu a expansão de ilhas de calor.
Resumo:
O objetivo desta dissertação foi o de investigar a noção de desamparo na teoria freudiana, articulada ao estudo de caso de três pacientes internados em Centro de Terapia Intensiva (CTI), no Hospital Universitário João de Barros Barreto, em Belém do Pará. Na transferência, identificou-se que a enfermidade e a internação desses pacientes produziam um sofrimento psíquico tão intenso que os remetia à revivescência do desamparo infantil. Considerou-se que, a escuta analítica desse sofrimento, deu suporte a esses pacientes no sentido de subjetivar essa vivência dolorosa. Escutar o paciente pela palavra dita ou não dita, pelas linguagens possíveis e, diante das impossibilidades reais derivadas de uso de aparelhos e sondas, colocou-nos frente às questões sobre os processos de transferência e contratransferência nesse contexto hospitalar, levando-nos a uma revisão de literatura sobre a ampliação de dispositivos clínicos em ambientes não classicamente analíticos. Neste sentido, concluiu-se que um ambiente acolhedor e seguro, constituído na e, pela transferência, permitiu aos pacientes agir criativamente sobre seu mundo externo e interno e, buscarem uma superação, ainda que nunca definitiva, do estado de desamparo, atribuindo novos sentidos para suas enfermidades, suas internações e até para suas vidas.
Resumo:
Esta dissertação objetivou investigar o manejo da transferência em pacientes acometidos pelos fenômenos psicossomáticos, discutindo a operação do desejo do analista nessa clínica. O estudo teve como ponto de partida o caso clínico de uma paciente acometida por diversas afecções, principalmente urticária, as quais não apresentavam nenhuma causa orgânica. A paciente não obteve nenhuma resposta médica para seus problemas, pois há fenômenos que ultrapassam o saber da medicina. Esse fato coloca em evidência a psicanálise como um discurso que pode subverter o discurso médico, na busca de respostas para os males de portadores de fenômenos psicossomáticos. Assim, o manejo da transferência na clínica desses pacientes deve operar a partir do desejo do analista em sustentar a fala do paciente, circunscrita ao real do corpo, como uma via de possibilidade para que o sujeito do desejo possa comparecer. Esta paciente apresentava dificuldade em alcançar a esfera subjetiva e, por este motivo, podemos apontar a fixação de um gozo específico próprio à doença, pois a mesma, ao sofrer, obtinha alguma satisfação do estado em que se encontrava. Verificou-se a necessidade de uma sustentação pelo analista desta fala, na tentativa de possibilitar um enlaçamento com questões inconscientes. Apesar de, inicialmente, apresentar esta fala circunscrita em torno do fenômeno, também trazia questões familiares, na tentativa de associar livremente, já que se tratava de uma estrutura neurótica. Estas esparsas articulações de significantes foram pontuadas pela terapeuta e um sintoma analítico endereçado a ela começou a se delinear. Após várias sessões, empreendeu uma identificação ao pai, o qual a abandonou, como uma nominação, quando afirmou que algo que a marcava positivamente, provavelmente, havia sido uma herança paterna, uma constituição de um Nome-do-Pai que pudesse amarrar o nó borromeano que havia sofrido uma inadvertência na inscrição deste significante.
Resumo:
O principal objetivo deste trabalho é desenvolver um estudo teórico/experimental sobre a influência dos parâmetros térmicos de solidificação (V L e T) na transição colunar/equiaxial das ligas Sn 5%Pb, Sn 15%Pb, Sn 20%Pb e Sn 25%Pb sob condições de solidificação unidirecional horizontal refrigerada à água. Inicialmente, são calculadas experimentalmente as velocidades da isoterma líquidus e as taxas de resfriamento das ligas em questão cujos resultados são comparados com as previsões teóricas de um modelo numérico. Em seguida, a posição da transição colunar/equiaxial é determinada por meio da análise macroestrutural assim como são avaliados os efeitos impostos por correntes convectivas devido ao efeito do soluto no comportamento da transição colunar/equiaxial das referidas ligas. Finalmente, é realizado um estudo experimental comparativo para as ligas estudadas quando solidificadas unidirecionalmente em diferentes sistemas refrigerados à água.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
Este trabalho teve como objetivo geral desenvolver uma metodologia sistemática para a inversão de dados de reflexão sísmica em arranjo ponto-médio-comum (PMC), partindo do caso 1D de variação vertical de velocidade e espessura que permite a obtenção de modelos de velocidades intervalares, vint,n, as espessuras intervalares, zn, e as velocidades média-quadrática, vRMS,n, em seções PMC individualizadas. Uma consequência disso é a transformação direta destes valores do tempo para profundidade. Como contribuição a análise de velocidade, foram desenvolvidos dois métodos para atacar o problema baseado na estimativa de velocidade intervalar. O primeiro método foi baseado na marcação manual em seções PMC, e inversão por ajuste de curvas no sentido dos quadrados-mínimos. O segundo método foi baseado na otimização da função semblance para se obter uma marcação automática. A metodologia combinou dois tipos de otimização: um Método Global (Método Price ou Simplex), e um Método Local (Gradiente de Segunda Ordem ou Conjugado), submetidos a informação à priori e vínculos. A marcação de eventos na seção tempo-distância faz parte dos processos de inversão, e os pontos marcados constituem os dados de entrada juntamente com as informações à priori do modelo a ser ajustado. A marcação deve, por princípio, evitar eventos que representem múltiplas, difrações e interseções, e numa seção pode ser feita mais de 50 marcações de eventos, enquanto que num mapa semblance não se consegue marcar mais de 10 eventos de reflexão. A aplicação deste trabalho é voltada a dados sísmicos de bacias sedimentares em ambientes marinhos para se obter uma distribuição de velocidades para a subsuperfície, onde o modelo plano-horizontal é aplicado em seções PMC individualizadas, e cuja solução pode ser usada como um modelo inicial em processos posteriores. Os dados reais da Bacia Marinha usados neste trabalho foram levantados pela PETROBRAS em 1985, e a linha sísmica selecionada foi a de número L5519 da Bacia do Camamu, e o PMC apresentado é a de número 237. A linha é composta de 1098 pontos de tiro, com arranjo unilateraldireito. O intervalo de amostragem é 4 ms. O espaçamento entre os geofones é 13,34 m com o primeiro geofone localizado a 300 m da fonte. O espaçamento entre as fontes é de 26,68 m. Como conclusão geral, o método de estimativa de velocidade intervalar apresentada neste trabalho fica como suporte alternativo ao processo de análise de velocidades, onde se faz necessário um controle sobre a sequência de inversão dos PMCs ao longo da linha sísmica para que a solução possa ser usada como modelo inicial ao imageamento, e posterior inversão tomográfica. Como etapas futuras, podemos propor trabalhos voltados direto e especificamente a análise de velocidade sísmica estendendo o caso 2D de otimização do semblance ao caso 3D, estender o presente estudo para o caso baseado na teoria do raio imagem com a finalidade de produzir um mapa continuo de velocidades para toda a seção sísmica de forma automática.
Resumo:
A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede.
Resumo:
Em sistemas híbridos de geração de eletricidade (SHGEs) é fundamental avaliar corretamente o dimensionamento, a operação e a gestão do sistema, de forma a evitar seu colapso prematuro e garantir a continuidade do fornecimento de energia elétrica com a menor intervenção possível de usuários ou de empresas geradoras e distribuidoras de eletricidade. O presente trabalho apresenta propostas de otimização para as etapas de dimensionamento, operação e gestão de SHGEs atendendo minirredes de distribuição de eletricidade. É proposta uma estratégia de operação que visa otimizar o despacho de energia do sistema, identificando a melhor relação, sob aspectos técnicos e econômicos, entre o atendimento da carga exclusivamente via fontes renováveis e banco de baterias ou exclusivamente via grupo gerador, e o carregamento do banco de baterias somente pelas fontes renováveis ou também pelo grupo gerador. Desenvolve-se, também, um algoritmo de dimensionamento de SHGEs, com auxílio de algoritmos genéticos e simulated annealing, técnicas meta-heurísticas de otimização, visando apresentar a melhor configuração do sistema, em termos de equipamentos que resultem na melhor viabilidade técnica e econômica para uma dada condição de entrada definida pelo usuário. Por fim, é proposto um modelo de gestão do sistema, considerando formas de tarifação e sistemas de controle de carga, cujo objetivo é garantir uma relação adequada entre a disponibilidade energética do sistema de geração e a carga demandada. A estratégia de operação proposta combina as estratégias de operação descontínua do grupo gerador, da potência crítica e do ponto otimizado de contribuição do gerador no carregamento do banco de baterias, e seus resultados indicam que há redução nos custos de operação globais do sistema. Com relação ao dimensionamento ótimo, o algoritmo proposto, em comparação a outras ferramentas de otimização de SHGEs, apresenta bons resultados, sendo adequado à realidade nacional. O modelo de gestão do sistema propõe o estabelecimento de limites de consumo e demanda, adequados à realidade de comunidades isoladas atendidas por sistemas com fontes renováveis e, se corretamente empregados, podem ajudar a garantir a sustentabilidade dos sistemas.
Resumo:
Apesar do aumento significativo do uso de redes locais sem fio (WLAN) nos últimos anos, aspectos de projeto e planejamento de capacidade da rede são ainda sistematicamente negligenciados durante a implementação da rede. Tipicamente um projeto de rede local sem fio é feito e instalado por profissionais de rede. Esses profissionais são extremamente experientes com redes cabeadas, mas são ainda geralmente pouco experientes com redes sem fio. Deste modo, as instalações de redes locais sem fio são desvantajosas pela falta de um modelo de avaliação de desempenho e para determinar a localização do ponto de acesso (PA), além disso, fatores importantes do ambiente não são considerados no projeto. Esses fatores se tornam mais importante quando muitos pontos de acesso (PAs) são instalados para cobrir um único edifício, algumas vezes sem planejamento de freqüência. Falhas como essa podem causar interferência entre células geradas pelo mesmo PA. Por essa razão, a rede não obterá os padrões de qualidade de serviço (QoS) exigidos por cada serviço. O presente trabalho apresenta uma proposta para planejamento de redes sem fio levando em consideração a influência da interferência com o auxílio de inteligência computacional tais como a utilização de redes Bayesianas. Uma extensiva campanha de medição foi feita para avaliar o desempenho de dois pontos de acesso (PAs) sobre um cenário multiusuário, com e sem interferência. Os dados dessa campanha de medição foram usados como entrada das redes Bayesianas e confirmaram a influência da interferência nos parâmetros de QoS. Uma implementação de algoritmo genético foi utilizado permitindo uma abordagem híbrida para planejamento de redes sem fio. Como efeito de comparação para otimizar os parâmetros de QoS, de modo a encontrar a melhor distância do PA ao receptor garantindo as recomendações do International Telecomunication Union (ITU-T), a técnica de otimização por enxame de partículas foi aplicada.
Resumo:
O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.
Resumo:
A pobreza é um problema multidimensional que se traduz em termos de privações e insuficiência de capacidades básicas. Os índices multidimensionais permitem uma análise apurada da qualidade de vida relacionada com a pobreza, considerando algumas dimensões importantes e representam um grande avanço na problemática do planejamento do desenvolvimento. O objetivo geral dessa pesquisa foi o de analisar as privações enfrentadas pelas famílias na comunidade Sirituba em Abaetetuba/PA, de acordo com as dimensões e indicadores do Índice de Pobreza Multidimensional (IPM) e analisar o impacto de transferências de renda em bens duráveis domésticos das famílias. A análise com famílias que recebem e não recebem transferências de renda mostrou que a duas tem a mesma quantidade de bens duráveis domésticos. A análise adaptada do IPM para Sirituba constatou que algumas famílias sofrem privações devido à baixa escolaridade dos chefes de família, à falta de acesso seguro água potável, à falta de saneamento básico e ao método rústico para cozinhas. Verificou-se também uma tendência de melhora no Índice de Desenvolvimento Humano Municipal (IDHM) de Abaetetuba. O município evoluiu da faixa de “muito baixo desenvolvimento humano” para o “médio desenvolvimento humano”, isso representa uma evolução nos indicadores de educação, longevidade e renda. No entanto, sabe-se que a área urbana de Abaetetuba não apresenta os mesmos serviços públicos de uma área rural como Sirituba. O Censo 2000 e 2010 consideram dados diferentes para cada uma dessas áreas demonstrando que os serviços de energia elétrica e abastecimento de água, prestados na área rural, são menos disponíveis em comparação a área urbana de Abaetetuba.
Resumo:
A partir do século XVII iniciou-se na Amazônia toda uma movimentação de viajantes/naturalistas atraídos pela biossociodiversidade dessa região dominada por uma floresta tropical. Henry Bates (1825-1892), estudioso de história natural, foi um deles, tendo, porém, se deslocado para o Norte do Brasil entre os anos de 1848 e 1859. Nesse contexto, o presente paper tem como objetivo analisar o processo de transferência das informações produzidas por esse viajante naturalista após 11 anos de trabalho de campo. A partir do material bibliográfico reunido para esse fim, verificou-se que tal processo foi bem-sucedido, como evidencia a ampla circulação das obras publicadas por Bates. Transcorridos 156 anos dessa expedição, a produção científica de Bates continua a participar do circuito acadêmico de produção de conhecimento sobre a Amazônia na contemporaneidade, qual seja no campo da biologia, da zoologia, da sociologia, da história ou da antropologia.