972 resultados para PROCESSAMENTO DE INFORMAÇÃO
Resumo:
A presente dissertação é um estudo de caso com caráter exploratório (Rampazo, 2005; Babie, 2008). Na parte teórica, propomos a categorização triádica das imagens no ciberespaço, que é uma das contribuições deste trabalho para a área de estudos sobre leitura no ciberespaço. A investigação apresenta como objetivos acompanhar e analisar o processo leitor de um professor de espanhol como língua estrangeira no ciberespaço, tendo como foco a multimodalidade. Tais objetivos têm a função de nortear a resolução dos problemas de pesquisa, a saber: (a) como um professor de ELE lê no ciberespaço tendo em vista as imagens como aspectos da multimodalidade; (b) como esse professor transpõe sua própria atividade leitora e os materiais da internet para uma atividade de aula. Os instrumentos de coleta utilizados foram: entrevista, questionário, protocolos e gravações do GTK. O cruzamento entre 12 critérios de análise permitiu, dentre outros detalhes, observar que nosso sujeito lê textos verbais no ciberespaço movimentando o cursor do mouse como se fosse seus dedos sobre uma folha de papel a percorrer linha a linha da esquerda para a direita. Também percebemos que a experiência de leitura no ciberespaço (conhecimentos prévios) pode ser o fator que contribui para que o sujeito despreze as imagens de categorias mescladas (B e C) e prefira utilizar as imagens de categoria B, no caso, por exemplo, de acessar uma reportagem a partir de sua manchete em jornal eletrônico. Quanto à transposição de materiais para as aulas, percebemos que a formação acadêmica de nosso sujeito ao não direcionar discussões teóricas e metodológicas sobre as TICs e seu uso em sala de aula e sua realidade de trabalho podem ter contribuído para o modo como o sujeito transpõe os materiais da internet para as aulas. As adaptações e afastamentos desses materiais não são trabalhados em sala de aula. As imagens e links são retirados e o texto utilizado na atividade docente é uma mistura de vários materiais provenientes de diferentes países, mas sem a fonte especificada na aula. O papel que a formação tem para a vida profissional e para a práxis do professor não pode ser descartado. Defendemos que uma formação que seja direcionada às TICs deve fazer parte do currículo acadêmico
Resumo:
O emprego das técnicas de posicionamento de alta-precisão e de precisão, com recurso ao Sistema de Posicionamento Global, têm se consolidado como solução definitiva para a obtenção das coordenadas de pontos sobre a superfície terrestre, nas mais diversas aplicações, em particular aquelas envolvidas na realização do cadastro em áreas urbanas e construção da base de dados associada aos Sistemas de Informação Geográfica utilizados na gestão territorial. Os receptores GPS armazenam as informações dos satélites inicialmente em formato próprio, porém a maioria dos usuários não usa esse formato para trabalho, e sim o formato RINEX. Sendo este um formato importante ao trabalhar com GPS, os softwares proprietários que geralmente acompanham os receptores e fazem a transformação de seu formato próprio para o RINEX, processam as observáveis de forma exclusiva e fechada, não permitindo alteração de seu código-fonte (o que configura uma caixa preta). Este trabalho visa elaborar e implementar um programa com código-fonte aberto para leitura e manipulação de arquivos de efemérides transmitidas e precisas do Sistema de Posicionamento Global GPS e aplicá-lo ao posicionamento de satélites artificiais, e ainda realizar um estudo do comportamento do mesmo no posicionamento geodésico de pontos na superfície terrestre. Considerando-se que a posição terrestre dos satélites influencia diretamente no cálculo da posição de pontos sobre a superfície, esse estudo verifica que é possível obter coordenadas dos satélites a partir das efemérides transmitidas de forma coerente, e isto é feito utilizando-se o processamento que o programa faz ao manipular corretamente os arquivos RINEX. O programa implementado é capaz de lidar com os arquivos de formato RINEX e SP3, lendo, extraindo e utilizando informações para uma aplicação de posicionamento terrestre de satélites artificiais GPS, podendo ainda realizar outras aplicações como o posicionamento geodésico de pontos adaptando seu código-fonte para outros modelos. Esse programa poderá ser utilizado em benefício dos profissionais que atuam em diversas aplicações que envolvam o posicionamento geodésico por satélites, proporcionando flexibilidade de trabalho, pois o programa terá código-fonte aberto.
Resumo:
Nos últimos anos, as imagens de sensores remotos orbitais têm sido uma fonte importante de informação para estudos geográficos, agrometeorológicos e ambientais em nível regional, por oferecerem a necessária repetitividade temporal da superfície terrestre. Um sensor particularmente importante é o Advanced Very High Resolution Radiometer (AVHRR), a bordo da série de satélites da National Oceanic and Atmospheric Administration (NOAA).
Resumo:
O projecto de sequenciação do genoma humano veio abrir caminho para o surgimento de novas áreas transdisciplinares de investigação, como a biologia computacional, a bioinformática e a bioestatística. Um dos resultados emergentes desde advento foi a tecnologia de DNA microarrays, que permite o estudo do perfil da expressão de milhares de genes, quando sujeitos a perturbações externas. Apesar de ser uma tecnologia relativamente consolidada, continua a apresentar um conjunto vasto de desafios, nomeadamente do ponto de vista computacional e dos sistemas de informação. São exemplos a optimização dos procedimentos de tratamento de dados bem como o desenvolvimento de metodologias de interpretação semi-automática dos resultados. O principal objectivo deste trabalho consistiu em explorar novas soluções técnicas para agilizar os procedimentos de armazenamento, partilha e análise de dados de experiências de microarrays. Com esta finalidade, realizou-se uma análise de requisitos associados às principais etapas da execução de uma experiência, tendo sido identificados os principais défices, propostas estratégias de melhoramento e apresentadas novas soluções. Ao nível da gestão de dados laboratoriais, é proposto um LIMS (Laboratory Information Management System) que possibilita a gestão de todos os dados gerados e dos procedimentos realizados. Este sistema integra ainda uma solução que permite a partilha de experiências, de forma a promover a participação colaborativa de vários investigadores num mesmo projecto, mesmo usando LIMS distintos. No contexto da análise de dados, é apresentado um modelo que facilita a integração de algoritmos de processamento e de análise de experiências no sistema desenvolvido. Por fim, é proposta uma solução para facilitar a interpretação biológica de um conjunto de genes diferencialmente expressos, através de ferramentas que integram informação existente em diversas bases de dados biomédicas.
Resumo:
Nos últimos anos, a rede de estações GPS permanentes tem crescido de forma sustentada em todo o mundo. Também em Portugal existe um número cada vez maior de estações permanentes, a maior parte das quais ligadas a instituições públicas e universidades. O volume de dados produzido por estas redes implica a criação de procedimentos automáticos de processamento de observações com metodologias adequadas. Tendo como objectivo principal processar os dados GPS provenientes de uma rede de estações da Faculdade de Ciências da Universidade de Lisboa (FCUL), foi elaborado um sistema de processamento automático de observações para um conjunto alargado de estações. A rede é constituída por estações IGS (Madrid, Maspalomas, Ponta Delgada, San Fernando e Villa Franca del Campo), por estações EUREF (Cascais, Vila Nova de Gaia e Lagos) e estações da FCUL (Flores, Graciosa, Santa Maria, Instituto de Meteorologia da Madeira, Observatório Astronómico de Lisboa Norte, Observatório Astronómico de Lisboa Sul). O processamento de observações GPS foi feito com recurso ao Bernese Processing Engine, uma componente do Bernese GPS Software 4.2, e foram utilizadas diferentes estratégias que incluem a modificação do ângulo de máscara, a determinação de gradientes troposféricos e a inclusão do efeito de carga oceânica. Neste trabalho são analisadas várias séries temporais e discutidas as vantagens e desvantagens de cada uma das estratégias utilizadas.
Resumo:
Enquanto o processamento local foi robustamente demonstrado, a literatura diverge relativamente ao processamento global nas perturbações do espetro do autismo (PEA). Este estudo teve como objetivo explorar a capacidade para processar informação global, enfatizando a sua trajetória desenvolvimental, em indivíduos com PEA. Os participantes foram avaliados em duas tarefas, utlizando objectos ecológicos, que requeriam processos de agrupamento distintos: a primeira, envolvendo estímulos que permitiam o recurso ora de ambas as frequências espaciais ora de frequências espaciais baixas para agrupar; e a segunda, envolvendo estímulos que não permitiam o recurso a frequências espaciais para agrupar. As crianças com PEA mostraram, ao contrário das crianças com desenvolvimento típico, dificuldades em algumas formas de processamento global mas não noutras, dependendo dos processos de agrupamento exigidos. Os adultos com PEA mostraram um processamento global idêntico ao dos adultos com desenvolvimento típico. Estes resultados vão de encontro às conclusões de estudos recentes, que sugerem que o processamento global em indivíduos com PEA se desenvolve com a idade. A discrepância na literatura sobre o processamento global nas PEA pode, então, ser explicada pela exigência do processamento do estímulo e a etapa de desenvolvimento dos indivíduos.
Resumo:
O presente trabalho, através da interdisciplinaridade entre Sistemas de Informação e Marketing, foi desenvolvido com o objetivo de fornecer uma avaliação do grau de satisfação do cliente bancário, pessoa-física, com a utilização das tecnologias de informática e telecomunicações na realização dos serviços bancários, na cidade de Porto Alegre. Foram consideradas como tecnologias da informação os terminais de autoatendimento, Automated Teller Machines (ATMs) para saques e depósitos, cash-dispenser, terminais de depósitos, terminais de extratos e saldos e dispensadores de cheques, localizados em agências, ante-salas de agências, quiosques em locais públicos e em postos de atendimento, e centrais telefônicas com atendimento humano e URA (Unidade de Resposta Audível). O método seguido foi o proposto por ROSSI & SLONGO (1998), com duas etapas distintas, uma exploratória e a outra descritiva. Os indicadores de satisfação foram selecionados através de levantamento de dados secundários. A pesquisa foi realizada nos meses de julho e agosto 2000, nas salas de auto-serviço do Banco do Brasil. Os clientes entrevistados deveriam estar familiarizados com os serviços telefônicos da empresa pesquisada e terem realizado alguma transação nos terminais de autoatendimento. Para as análises da pesquisa, foram considerados fatores sobre postos de auto-atendimento, processamento de transações, comunicação com clientes, segurança, atendimento nas centrais telefônicas e erros relacionados a computadores. Concluiu-se que o Banco do Brasil está muito bem posicionado quanto à satisfação de seus clientes no que se refere às centrais telefônicas e auto-atendimento, ao seu site Internet Banking e à empresa como um todo. Todos com uma satisfação próxima ao nível máximo. Através de técnicas estatísticas, identificou-se que o indicador que trata de “pagamentos de contas, taxas e tributos nos terminais de auto-atendimento” recebeu o maior índice de satisfação, assim como o fator comunicação com clientes; e o indicador “agilidade na solução e problemas registrados nas centrais telefônicas” recebeu o maior índice de importância, assim como o fator postos de auto-atendimento. Assim, analisou-se, definiu-se e realizouse um modelo para avaliação da satisfação do cliente com as tecnologias da informação.
Resumo:
As tecnologias que criaram as ferrovias, a concentração de mercados urbanos, o surgimento da produção em massa, a eletrificação e a introdução do motor de combustão interna compuseram uma longa cadeia de forças responsáveis pelo impacto na reestruturação dos negócios, na economia política como um todo e, naturalmente, na relação do homem com o seu trabalho. A tecnologia da informação (TI) pode ser considerada a mais recente e influente das tecnologias inseridas na sociedade, trazendo consigo uma série de impactos bem como a necessidade de pesquisas para o melhor entendimento desse novo fenômeno. O presente estudo teve como objetivo avaliar a percepção de bancários em relação ao impacto da TI sobre seu trabalho. Para tanto, foi adaptado e validado para o contexto brasileiro um instrumento de pesquisa criado por Torkzadeh e Doll capaz de medir a percepção do usuário em relação ao impacto da TI sobre seu trabalho individual e, para ampliar os estudos sobre o impacto da TI, foi elaborada e validado um instrumento de avaliação do impacto da TI sobre o processo decisório individual. A pesquisa classifica-se como um estudo exploratório descritivo, utilizando o método estatístico no que se refere à obtenção, ao processamento e à validação dos dados. A coleta de dados obedeceu à concepção dos estudos transversais, ao passo que a estratégia para a obtenção dos mesmos baseou-se na realização de 411 entrevistas com funcionários do banco que se encontravam trabalhando, durante o período da pesquisa (dezembro de 2002), na rede de agências ou na sede administrativa de dez capitais brasileiras, selecionadas para esta survey. A presente pesquisa obteve como resultado do instrumento adaptado de Torkzadeh e Doll (1999) uma significante diferença estatística entre as médias das variáveis de análise e confirmou a percepção de que a TI causa impacto em primeiro lugar na produtividade; em segundo, na satisfação dos clientes; em terceiro, no controle gerencial; e, por último, na inovação. O instrumento sobre processo decisório demonstrou uma diferente e maior percepção de impacto da TI sobre a fase denominada concepção e uma semelhante e menor percepção de impacto sobre as demais fases do processo (implementação, inteligência e escolha).
Resumo:
In the last years, a number of enterprises ¿ each time greater ¿ have perceived the importance of the strategic management of the intellectual capital in its strategic planning. Factors like globalization of the economy and consequent awareness of specialized work value enclosed in organizational processes and routines, awareness of knowledge as factor of distinct production and low cost of data processing nets, point to a growing replacement of physical force for cerebral in our organizations and in our social lives. This work has the objective to analyze how the information technology, in its present stage, may contribute to creation and development of knowledge, or intellectual capital, in the organization of business. We will use for this purpose the methodology proposed by Nonaka and Takeuchi for creation of knowledge in the organizations. The model is based in two basic points: 1) the existence of two types of knowledge, the tacit and the explicit and its several processes of interaction wich generate operational knowledge (internalization), systematic knowledge (combination), shared knowledge (socialization) and conceptual knowledge (externalization); 2) the view that knowledge in principle is individual, belongs to each member of the organization and must be enlarged 'in an organization way'. Considering the characteristics of the methodology used, the proposal is the construction of a knowledge portal in the organization of business, so that it may be used as a tool for helping to create and develop organizational knowledge.
Resumo:
Algumas abordagens recentes chamaram a atenção para a importância das empresas mobilizarem sua capacidade produtiva para solucionar problemas das classes menos favorecidas da sociedade. Especificamente para o caso de serviços financeiros, defende-se que a atuação na baixa renda tem implicações positivas na sociedade como um todo, ao promover sua re-inclusão no sistema tradicional. Dentro desse cenário, as iniciativas de microfinanças parecem jogar luz a esse problema ao tentar levar acesso a serviços financeiros para a população de baixa renda. Porém, tais iniciativas ainda parecem não ter demonstrado o seu real potencial, e prova disso é a persistência dos crônicos indicadores de pobreza e de desigualdade social. Isso acontece porque as abordagens atuais de microfinanças apresentam limitações, dentre as quais as tecnológicas são uma das mais importantes. Por outro lado, existe um fenômeno que se manifesta especificamente no Brasil e que se refere ao grande crescimento dos chamados correspondentes bancários (CBs), em que o correspondente, que, na maior parte das vezes, é um varejo, oferta serviços em nome do banco. Alguns estudos relacionam esses dois conceitos, microfinanças e CBs, e propõem o CB como um canal tecnológico para a promoção das microfinanças. Dentro desse cenário, uma pergunta pertinente e ainda pouco explorada na literatura é: como ocorrem a adoção, implementação e uso das tecnologias de correspondentes bancários na oferta de serviços financeiros para a população de baixa renda no Brasil? De posse dessa pergunta de pesquisa, procedeu-se a um estudo de caso em profundidade e o objeto de estudo foi a forma de atuação do Banco Lemon, em especial, por possuir uma extensa rede de CBs, ser baseado exclusivamente em CBs (não tem agências físicas) e estar focado na baixa renda. A partir de uma abordagem que inclui contribuições das escolas do estruturacionismo, do construtuvismo e do contextualismo, foi possível entender como ocorreu o processo de negociação entre dois grupos relevantes, o Banco Lemon e o gestor de redes, que é um intermediário entre o banco e o varejo, na formação da tecnologia que foi adotada, implementada e usada. Os principais achados da pesquisa referem-se ao entendimento de como a tecnologia é usada para prover os serviços que o Banco Lemon quer ofertar e como dois grupos relevantes interagem, negociam e produzem a tecnologia na prática.
Resumo:
Ao optar por redes locais (LAN - Local Area Networks) de microcomputadores, em lugar de ampliar os investimentos nos sistemas de grande porte que já possuem instalados, diversas empresas do setor bancário no Brasil estão adotando o conceito de downsizing, expressão que identifica a política de redução do porte dos equipamentos de informática utilizados para executar o processamento de informações corporativas. A adoção deste tipo de política, longe de ser uma ocorrência episódica, tem características de tendência geral para o setor nos próximos anos. Este trabalho faz uma investigação do alcance dessa tendência no setor bancário brasileiro e uma análise dos fatores que têm impulsionado a implementação de diferentes estratégias de downsizing de sistemas de informação
Resumo:
O uso comercial, propriamente dito, s6 começou a ser possível pelo início da década de 60, destacando-se aqui o uso quase que exclusivo das grandes organizações, ainda que com grandes restrições. A evolução continuou por toda a década de 60 e de 70, numa corrida alucinante de velocidade e capacidade de processamento, numa ênfase total ao desempenho da máquina, do hardware
Resumo:
Os grandes avanços da tecnologia de informação têm provocado mudanças não só na velocidade e custos de processamento e transmissão de dados mas também nas estruturas organizacionais e nos sistemas de informação, de planejamento e controle. Na construção civil, ainda que em menor proporção que em outros setores mais "modernos" da economia, as mudanças já são visíveis. Através de pesquisa de campo junto a gerentes e diretores de empresas de construção civil que atuam no setor de edificações, procuramos identificar como as empresas têm gerenciado seus empreendimentos e como têm utilizado os sistemas de informações para apoio às decisões de seus administradores.
Resumo:
A construção e consolidação das sociedades democráticas depende da existência de espaços públicos que viabilizem a discussão e propagação de idéias As redes de comunicação estruturadas em TI permitem a concepção de um ciberespaço onde é possível a veiculação de idéias e opinião, a veiculação de informações com liberdade de expressão poucas vezes verificada na história humana. Este trabalho verifica a possibilidade da criação de espaços públicos alternativos que substituam ou complementem os tradicionais por meio da .utilização de Tecnologia da Informação estruturada pelo Setor Público.
Resumo:
A ideia básica desse trabalho é analisar o campo da infra-estrutura de tecnologia de informação e suas contribuições para as empresas. Serão também abordadas possíveis consequências obtidas por investimentos propostos. Este trabalho proporá uma divisão de áreas de especialização da infra-estrutura de TI, e abordará os conceitos atuais de cada uma delas. Dentre as alternativas apresentadas serão ressaltados os fatores de maior importância para a adoção de uma ou outra alternativa às necessidades identificadas. As áreas escolhidas para análise são: sistemas de processamento, sistemas de armazenamento, meios de acesso, gerenciamento eletrônico de documentos e impressão, conectividade, sistemas de energia, sistemas operacionais, outros sistemas de base e outros serviços de base. Por fim, serão apresentados dois estudos de caso sobre necessidades distintas de mudança de infra-estrutura de tecnologia de informação por empresas cariocas do setor químico.