913 resultados para geohazard monitoraggio geofisici controllo remoto raspberry rete nrf24
Resumo:
“La questione di Trieste”, ovvero la questione del confine italo-yugoslavo all’indomani della seconda guerra mondiale costituisce da lungo tempo oggetto di attenzione e di esame da parte della storiografia italiana e straniera. Con alcune importanti eccezioni, la ricostruzione complessiva di quelle vicende ha visto il più delle volte il prevalere di un approccio storico-diplomatico che ha reso difficile comprendere con chiarezza i rapporti e le interdipendenze fra contesto locale, contesto nazionale e contesto internazionale. Attraverso la lettura incrociata dell’ampia documentazione proveniente dai fondi dei National Archives Records Administration (NARA) questo studio tenta una rilettura delle varie fasi di sviluppo della questione nel periodo compreso tra il giugno del 1945 e l’ottobre del 1954 secondo una duplice prospettiva: nella prima parte si concentra sulla politica americana a Trieste, guardando nello specifico a due aspetti interni tra loro strettamente correlati, la gestione dell’ordine pubblico e la “strategia” del consenso da realizzarsi mediante il controllo dell’informazione da un lato e la promozione di una politica culturale dall’altro. Sono aspetti entrambi riconducibili al modello del direct rule, che conferiva al governo militare alleato (GMA) piena ed esclusiva autorità di governo sulla zona A della Venezia Giulia, e che ci appaiono centrali anche per cogliere l’interazione fra istituzioni e soggetti sociali. Nella seconda parte, invece, il modificarsi della fonte d’archivio indica un cambiamento di priorità nella politica estera americana relativa a Trieste: a margine dei negoziati internazionali, i documenti del fondo Clare Boothe Luce nelle carte dell’Ambasciata mostrano soprattutto come la questione di Trieste venne proiettata verso l’esterno, verso l’Italia in particolare, e sfruttata – principalmente dall’ambasciatrice – nell’ottica bipolare della guerra fredda per rinforzare il sostegno interno alla politica atlantica. Il saggio, dunque, si sviluppa lungo due linee: dentro e fuori Trieste, dentro 1945-1952, fuori 1953-1954, perché dalle fonti consultate sono queste ad emergere come aree di priorità nei due periodi. Abstract - English The “Trieste question”, or the question regarding the Italian - Yugoslav border after the Second World War, has been the object of careful examination in both Italian and foreign historiography for a long time. With a few important exceptions, the overall reconstruction of these events has been based for the most part on historic and diplomatic approaches, which have sometimes made it rather difficult to understand clearly the relationships and interdependences at play between local, national and international contexts. Through a comparative analysis of a large body of documents from the National Archives and Records Administration (NARA), College Park MD, this essay attempts a second reading of the various phases in which the question developed between June 1945 and October 1954, following a twofold perspective: the first part focuses on American policy for Trieste, specifically looking at two internal and closely linked aspects, on the one hand, the management of ‘law and order’, as well as a ‘strategy’ of consent, to be achieved through the control of all the means of information , and, on the other, the promotion of a cultural policy. Both aspects can be traced back to the ‘direct rule’ model, which gave the Allied Military Government (AMG) full and exclusive governing authority over Venezia Giulia’s Zone A. These issues are also fundamental to a better understanding of the relationships between institutions and social subjects. In the second part of the essay , the change in archival sources clearly indicates a new set of priorities in American foreign policy regarding Trieste: outside any international negotiations for the settlement of the question, the Clare Boothe Luce papers held in the Embassy’s archives, show how the Trieste question was focused on external concerns, Italy in particular, and exploited – above all by the ambassador – within the bi-polar optic of the Cold War, in order to strengthen internal support for Atlantic policies. The essay therefore follows two main lines of inquiry: within and outside Trieste, within in 1945-1952, and outside 1953-1954, since, from the archival sources used, these emerge as priority areas in the two periods.
Resumo:
Molecular mechanisms regulating the flowering process have been extensively studied in model annual plants; in perennials, however, understanding of the molecular mechanisms controlling flowering has just started to emerge. Here we review the current state of flowering research in perennial plants of the rose family (Rosaceae), which is one of the most economically important families of horticultural plants. Strawberry (Fragaria spp.), raspberry (Rubus spp.), rose (Rosa spp.), and apple (Malus spp.) are used to illustrate how photoperiod and temperature control seasonal flowering in rosaceous crops. We highlight recent molecular studies which have revealed homologues of TERMINAL FLOWER1 (TFL1) to be major regulators of both the juvenile to adult, and the vegetative to reproductive transitions in various rosaceous species. Additionally, recent advances in understanding of the regulation of TFL1 are discussed.
Resumo:
The (poly)phenols in ileal fluid after ingestion of raspberries were analysed by targeted and non-targeted LC-MSn approaches. Targeted approaches identified major anthocyanin and ellagitannin components at varying recoveries and with considerable inter-individual variation. Non-targeted LC-MSn analysis using an Orbitrap mass spectrometer gave exact mass MS data which was sifted using a software program to select peaks that changed significantly after supplementation. This method confirmed the recovery of the targeted components but also identified novel raspberry-specific metabolites. Some components (including ellagitannin and previously unidentified proanthocyanidin derivatives) may have arisen from raspberry seeds that survived intact in ileal samples. Other components include potential breakdown products of anthocyanins, unidentified components and phenolic metabolites formed in either the gut epithelia or after absorption into the circulatory system and efflux back into the gut lumen. The possible physiological roles of the ileal metabolites in the large bowel are discussed.
Resumo:
Current UK intake of non-milk extrinsic sugars (NMES) is above recommendations. Reducing the sugar content of processed high sugar foods through reformulation is one option for reducing consumption of NMES at a population level. However, reformulation can alter the sensory attributes of food products and influence consumer liking. This study evaluated consumer acceptance of a selection of products that are commercially-available in the UK; these included regular and sugar-reduced baked beans, strawberry jam, milk chocolate, cola and cranberry & raspberry juice. Sweeteners were present in the reformulated chocolate (maltitol), cola (aspartame and acesulfame-K) and juice (sucralose) samples. Healthy, non-smoking consumers (n = 116; 55 men, 61 women, age: 33 ± 9 years; BMI: 25.7 ± 4.6 kg/m2) rated the products for overall liking and on liking of appearance, flavor and texture using a nine-point hedonic scale. There were significant differences between standard and reduced sugar products in consumers’ overall liking and on liking of each modality (appearance, flavor and texture; all P < 0.0001). For overall liking, only the regular beans and cola were significantly more liked than their reformulated counterparts (P < 0.0001). Cluster analysis identified three consumer clusters that were representative of different patterns of consumer liking. For the largest cluster (cluster 3: 45%), there was a significant difference in mean liking scores across all products, except jam. Differences in liking were predominantly driven by sweet taste in 2 out of 3 clusters. The current research has demonstrated that a high proportion of consumers prefer conventional products over sugar-reduced products across a wide range of product types (45%) or across selected products (27%), when tasted unbranded, and so there is room for further optimization of commercial reduced sugar products that were evaluated in the current study. Future work should evaluate strategies to facilitate compliance to dietary recommendations on NMES and free sugars, such as the impact of sugar-reduced food exposure on their acceptance.
Resumo:
TESSA is a toolkit for experimenting with sensory augmentation. It includes hardware and software to facilitate rapid prototyping of interfaces that can enhance one sense using information gathered from another sense. The toolkit contains a range of sensors (e.g. ultrasonics, temperature sensors) and actuators (e.g. tactors or stereo sound), designed modularly so that inputs and outputs can be easily swapped in and out and customized using TESSA’s graphical user interface (GUI), with “real time” feedback. The system runs on a Raspberry Pi with a built-in touchscreen, providing a compact and portable form that is amenable for field trials. At CHI Interactivity, the audience will have the opportunity to experience sensory augmentation effects using this system, and design their own sensory augmentation interfaces.
Resumo:
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
Resumo:
Esta dissertação investiga feições morfológicas do campo de gelo e geleiras da Ilha Rei George, nas Shetlands do Sul, Antártica, principalmente para determinar variações na posição das frentes de gelo no período entre 1956 e 1995, através de mapas elaborados a partir de levantamentos aerofotogramétricos e imagens de satélites. A posição das frentes de gelo da ilha foram determinadas a partir de três imagens multiespectraisdo satéliteSPOT, de 1988, 1992 e 1995, e comparadas com suas posições obtidas de fotografia aéreas datadas de 1956. Imagens de satélite Landmt MSS, de 1973 e 1979, e ERS-l SAR, de 1992, foram usadas como intrumentos auxiliares no reconhecimento de feições superficiais do campo de gelo e para delimitação de bacias de drenagem em setores onde as imagens SPOT eram de difícil interpretação. Constatou-se que dos 1250 km2 da área da Ilha Rei George, 92,7% são cobertos por massas de gelo, tendo sido identificadas setenta bacias de drenagem glacial. Retração generalizada das frentes de gelo foi observada ao longo de quatro décadas, resultando na perda de aproximadamente 7% da cobertura glacial.
Resumo:
Dados altimétricos do satélite TOPEX/POSEIDON obtidos durante 1993 e 1994 foram utilizados para estudar a dinâmica oceanográfica na região oeste do oceano Atlântico Sul, entre as latitudes de 15°S e 50°S e longitudes de 30°W e 65°W. Simultaneamente, dados hidrográficos (históricos e sinópticos) e imagens termais do sensor AVHRR/NOAA foram utilizados com o objetivo de proporcionar uma comparação com os resultados da altimetria. Características da topografia dinâmica superficial, da variabilidade e anomalias da topografia dinâmica são apresentadas. Imprecisões dos modelos do geóide marinho restringiram o estudo dos padrões da topografia dinâmica supercial e das correntes geostrósficas superficiais, a comprimentos de onda espaciais superiores a 2400 Km. A variabilidade temporal da topografia dinâmica demonstrou um padrão altamente energético na região da Confluência Brasil-Malvinas durante o período. Diferenças sazonais foram observadas com os maiores valores de variabilidade nos meses de inverno e primavera. As anomalias (resíduos) da topografia dinâmica foram utilizadas no estudo de fenômenos transientes, onde um vórtice foi acompanhado acompanhado ao longo do tempo, e em conjunto com imagens AVHRR/NOAA. Feições térmicas superficiais foram confrontadas com anomalias altimétricas de trajetórias específicas, contemporâneas às imagens, apresentando ótima concordância e confirmando a excelente potencialidade do uso conjunto destes dois tipos de dados. Finalmente, a técnica da topografia dinâmica composta (combinação de dados altimétricos e climatológicos) foi utilizada para reconstruir a topografia dinâmica total a partir das anomalias altimétricas, sem a contaminação das imprecisões dos modelos do geóide. O ciclo escolhido corresponde ao mesmo período de um cruzeiro hidrográfico, proporcionando uma comparação entre topografias dinâmicas (e velocidades geostróficas superficiais) estimadas pelos dois conjuntos de dados. A concordãncia entre os dois resultados foi bastante satisfatória, indicado a possibilidade de se gerar estimativas da circulação geostrófica superficial, com boa confiabilidade, apenas com dados do sátelite e dados hidrográficos climatológicos. Concluíndo, o TOPEX/POSEIDON apresenta-se como uma excelente ferramente para o estudo da dinâmica oceanográfica no Atlântico Sul, proporcionando uma análise quasi-sinóptica de qualidade e, principalmente, aumentando o conhecimento desta região.
Resumo:
Os Sistemas de Informação Geográfica vêm sendo cada vez mais utilizados em estudos envolvendo o planejamento e gerenciamento de recursos e meio-ambiente. A agricultura é uma das atividades humanas mais intimamente relacionadas com o meio ambiente. Este trabalho investiga o emprego desses sistemas para integrar diferentes informações relacionadas à produção agrícola e obter respostas que subsidiem o planejamento em regiões agrícolas.A área estudada é uma localidade do município de Não-me-Toque, situado no planalto médio do Rio Grande do Sul, entre as coordenadas 28°21' e 28°34'sul e 53°40' e 53°57'oeste. Os resultados evidenciaram as vantagens dos Sistemas de Informação Geográfica sobre os métodos convencionais de análise, especialmente no que se refere à velocidade, precisão e à associação dos dados de interesse à sua localização geográfica.
Resumo:
A utilização de programas de processamento de imagens digitais e de sistemas de informações geográficas que admitem a importação e exportação de inúmeros formatos de apresentação de dados, aliado a modernos equipamentos de computação, tem tornado a integração de dados, de diferentes sensores, um caminho padrão em Geociências, pela otimização da relação custo/tempo na execução de serviços de mapeamento. Neste contexto, esse trabalho resulta da análise da integração de dados de sensoriamento remoto e geofísica, com o objetivo de verificar sua aplicabilidade na identificação e caracterização litológica e estrutural de uma área-teste, localizada na Região de Quitéria -Várzea do Capivarita, no Estado do Rio Grande do Sul. A metodologia usada, em um primeiro momento, priorizou o processamento e análise individual de dados cartográficos, de imagens TM/LANDSAT-5 e dados de aeromagnetometria e aerogamaespectrometria nos canais Contagem Total (CT), Potássio (K), Tório (Th) e Urânio (U). Os dados foram, a seguir, convertidos para o formato digital na forma de imagens (“raster”) com resolução espacial de 30 x 30 m, a fim de permitir o cruzamento de informações através de técnicas de Processamento Digital de Imagens e de Sistemas de Informações Geográficas (SIG’s). A integração das imagens TM e geofísicas foi realizada com o uso da Transformação IHS, através da conversão das bandas TM para as componentes individuais I, H e S; substituindo-se a componente H, pela imagem geofísica no retorno ao espaço RGB. A análise dos produtos de sensoriamento remoto e geofísica obtidos nessa pesquisa, permitiram identificar os Domínios Morfoestruturais; identificar e delimitar as diferentes Unidades Fotolitológicas; reconhecer os principais sistemas estruturais a partir da extração e análise de lineamentos; obter informações do padrão de relevo magnético; e, principalmente, a geração de imagens temáticas de teores de radioelementos com a identificação de áreas promissoras de mineralizações. Os resultados comprovam a eficiência do emprego de técnicas de integração de dados digitais, via computador, tanto para fins de mapeamento litoestrutural, como em caráter prospectivo, em serviços geológicos de grandes áreas.
Resumo:
O objetivo desta tese consistiu em avaliar a influência da espacialização de propriedades físicas de bacias hidrográficas, relacionadas à topografia, ao uso do solo, à litologia e à tectônica, e os efeitos na resposta hidrológica. Tais elementos foram desagregados em unidades de resposta hidrológica através de uma estrutura vetorial, com base em técnicas de sensoriamento remoto e sistemas de informação geográfica, que facilitou a modelagem, contemplando os processos hidrológicos verticais e laterais envolvidos. Diferentes níveis de agregação e desagregação espacial alicerçaram a aplicação do hidrograma de Clark para a transformação de chuva em vazão com base nos valores da precipitação efetiva, a partir da utilização do método curva número - CN. A bacia hidrográfica do Rio Ibirapuitã, localizada no Estado do Rio Grande do Sul, Brasil, com área de 5.976 km2, constituiu o estudo de caso, cuja espacialização envolveu um pixel de um km e a utilização do conceito de hidrotopos. As características geológicas evidenciaram a incidência de rochas vulcânicas basálticas (72%), arenitos (24%) e siltito-folhelho (4%), e lineamentos tectônicos, espacializados sob a forma de freqüência, com ocorrência de 47% para a classe forte, 35% para a classe média, 12% para a classe muito forte e o restante 6 % para a classe fraca. A topografia evidenciou um relevo em que as cotas topográficas indicaram valores entre 70 e 230 m. O uso do solo é caracterizado por seis classes, com destaque para campos e pastagens que cobrem cerca de 60% da área, seguindo-se a cultura de arroz irrigado (27%) e matas (11%). Às simulações hidrológicas iniciadas com a influência da litologia, seguiram-se com a incorporação sucessiva dos efeitos da tectônica, da desagregação em duas sub-bacias, da desagregação em cinco sub-bacias. Os resultados obtidos pelas simulações hidrológicas e avaliados pelo coeficiente de eficiência R2 de Nash e Sutcliffe pelo erro médio absoluto (Mean Absolute Error – MAE) e pelos seus incrementos indicaram: a) que os efeitos da variabilidade espacial da litologia constituiu a influência mais significativa (R2 = 0,489, MAE = 0,32); b) que a tectônica foi o segundo fator em importância (R2 = 0,569, MAE = 0,25).; que a desagregação em duas sub-bacias foi a menos importante.(R2 = 0,582, MAE = 0,24); que a desagregação em cinco sub-bacias foi o terceiro fator mais importante (R2 = 0,725, MAE = 0,24).
Resumo:
Este trabalho descreve de uma fonna geral a proposta de uma estratégia para controle e supervisão de plantas industriais através da Internet. Tal proposta consiste na apresentação de três contextos distintos: o contexto planta industrial, o contexto servidor e o contexto cliente. O levantamento criterioso de requisitos para cada um dos contextos é apresentado. A união entre as tecnologias Web e os barramentos de campo resultam naturalmente no acesso remoto através da Internet a sistemas de automação industrial, sendo assim, surge uma nova tendência em tennos de supervisão e controle. A motivação para este trabalho surgiu através de alguns estudos de casos presentes na literatura, que disponibilizam laboratórios através da Internet. A maioria destes estudos de caso não possuía os requisitos considerados primordiais para a disponibilização de um processo através da Internet, como por exemplo, a independência de platafonna no lado cliente e um processo de escala industrial no contexto planta industrial. A estratégia proposta tem por objetivo suprir as carências apresentadas pela maioria dos centros de ensino e pesquisa que disponibilizam laboratórios através da Internet. Para validar a estratégia proposta, foi desenvolvido um sistema de acesso remoto no DELET da UFRGS que é constituído de uma Planta Piloto Foundation Fieldbus e sua posterior disponibilização para a Internet Neste trabalho é apresentada sua fundamentação teórica, sua aplicabilidade na área de automação industrial e controle, baseando-se no protocolo de comunicação industrial, o Foundation Fieldbus; descreve-se também como é feito o interfaceamento entre softwares de controle da Planta Piloto e o sistema de supervisão e controle indo até a estrutura de comunicação com a Internet para que se tome possível para o cliente da Internet visualizar e interagir com a Planta Piloto. Configuração de hardware e software e vários outros conceitos ligados às ferramentas utilizadas neste sistema também são abordados neste trabalho.
Resumo:
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
Resumo:
O presente trabalho discute os terraços lagunares da margem leste da Laguna dos Patos, localizados próximo à cidade de Mostardas. Através desse estudo é apresentado um novo modelo evolutivo para os últimos 5.000 anos no Litoral Médio do Rio Grande do Sul. Novas ferramentas foram utilizadas pela primeira vez no estudo da planície costeira do Rio Grande do Sul. Com respeito a aquisição dos dados de subsuperfície foi utilizado com êxito um GPR (Ground Penetretion Radar). Na análise e interpretação dos dados foi feita uma tentativa de aplicação da estratigrafia de seqüências. Através do uso de um scanner foram elaborados perfis dos testemunhos de sondagem, identificando aspectos distintos na composição e porosidade de diferentes litologias. Outras ferramentas utilizadas constam de sensoriamento remoto, nivelamento altimétrico e batimétrico, vibracore e datação radiométrica. Dessa forma, foram definidas três feições de terraceamento lagunar de idade holocênica na área de estudo, cada uma relacionada a um nível lagunar distinto. Através dos dados obtidos em subsuperfície foi possível traçar um esboço cronoestratigráfico, bem como uma curva de variação relativa do nível lagunar para a região. Também, como resultado dos dados geológicos de superfície, associados a novas interpretações baseadas em fotografias aéreas e imagens de satélite, foi elaborado um mapa geológico atualizado.
Resumo:
Analisa os impactos ocorridos pela implantação da intranet em quatro unidades de informação de instituições de ensino superior da Grande Porto Alegre, especificamente a Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS), as Faculdades Integradas Ritter dos Reis, a Universidade Luterana do Brasil (ULBRA) e a Universidade do Vale do Rio dos Sinos (UNISINOS). O referencial teórico engloba aspectos referentes às tecnologias da informação e do conhecimento, à globalização da informação através das redes, especialmente Internet e intranet, e à função das universidades e de suas bibliotecas na nova Sociedade da Informação e do Conhecimento. Utiliza, para o levantamento dos dados, a técnica do estudo de casos múltiplos. A coleta de dados foi feita através de instrumento de pesquisa, dividido em dois módulos e especialmente criado para tal fim. O primeiro instrumento é um questionário respondido pelos quatro bibliotecários responsáveis pelas unidades de informação investigadas, abordando dados técnicos sobre o uso de redes. O segundo é um questionário, complementado por uma entrevista semi-estruturada, aplicados a 40 bibliotecários que trabalham nestas bibliotecas, abordando dados organizacionais e humanos sobre o uso de intranet. Os dados permitem traçar o estado-de-arte do uso da Intranet nas bibliotecas pesquisadas, o perfil bibliotecário, os produtos e serviços disponíveis em rede, o comportamento dos usuários remoto e local. Levanta, também, a percepção dos profissionais quanto a aspectos como o uso de redes e as novas formas de comunicação. Conclui com a explicitação dos impactos causados pela implantação das redes informáticas e das mudanças que se estão produzindo no perfil do profissional bibliotecário. Recomenda o incremento da comunicação on line, o intercâmbio constante com usuários para detectar suas necessidades de informação e de novos produtos e serviços, o estabelecimento de políticas de gestão da informação on line, a edição e publicação de documentos multimídia e a atualização profissional dos bibliotecários pela aprendizagem contínua através de cursos de formação à distância.