957 resultados para Operações lógicas
Resumo:
Uma grande evolução aconteceu no mundo com o surgimento da Internet. Ela causou um espantoso aumento das comunicações, que passaram a ser em tempo real e com uma abrangência mundial. Foi a democratização da informação. A Internet serve como uma grande ferramenta para as empresas, principalmente com a globalização dos mercados, fenômeno que cresce cada dia mais e atinge a todos. A globalização fez com que as organizações se tornassem globais, e a Internet funciona como um elo de ligação entre empresas, fornecedores e consumidores. Este trabalho consistiu na realização de uma pesquisa survey exploratória com o objetivo de verificar e descrever o uso potencial da Internet como ferramenta de auxílio à realização de negócios de caráter global, nas micro, pequenas e médias empresas de Porto Alegre. A amostra das empresas pesquisadas foi extraída do Trade Point Porto Alegre, por ser essa uma entidade que tem por objetivo auxiliar as empresas a realizarem operações globais. Com relação ao mercado global, o trabalho identificou que quase todas as empresas acreditam que ele tenha oportunidades de negócios. Os principais meios para entrar nesse mercado são a participação em feiras e rodadas de negócios, contato pessoal e o Trade Point. A Internet já está disseminada no meio empresarial, todas as empresas já a conhecem, e boa parte das empresas realizam operações que podem ser auxiliadas pela rede, como comunicação, promoção de produtos e acompanhamento pós-venda. Identificou-se que as microempresas são as que menos acreditam no mercado internacional, mas apontaram que a Internet pode ajudá-las em suas atividades. Já as pequenas empresas são as que atuam no mercado internacional e acreditam que a Internet possa ajudá-las em algumas atividades. Por fim, as médias empresas, também atuam no mercado internacional, principalmente com as exportações, e são as que já estão utilizando a Internet. O Trade Point se mostrou um serviço bem requisitado pelas empresas, principalmente as que atuam com o comércio internacional. As principais vantagens citadas foram a centralização de informações e a geração de novos negócios.
Resumo:
Atualmente os sistemas computacionais mais sofisticados são aqueles que apresentam imagens gráficas. Devido às características de alta velocidade de processamento e excelente resultado na geração de imagens o uso da Computação Gráfica se dá em diversas áreas como a indústria, pesquisa, publicidade, entretenimento, medicina, treinamento, dentre outras. Este trabalho aborda dois assuntos clássicos na Computação Gráfica, Geometria Sólida Construtiva (CSG) e Sombras Projetadas. Ambos são muito importantes para esta linha de pesquisa da Ciência da Computação. A Geometria Sólida Construtiva é utilizada na modelagem de objetos e as sombras projetadas são necessárias para aumentar o realismo das imagens. Geometria sólida construtiva (CSG) é uma técnica para a modelagem de sólidos, que define sólidos complexos pela composição de sólidos simples (primitivas). Isso inclui também a composição de objetos já combinados, até que se chegue a um objeto mais complexo. Um fator muito importante e necessário na obtenção de imagens realistas e que deve ser considerado é a utilização de sombras, pois estas são eficazes no realismo e impressão espacial de objetos tridimensionais. As sombras estabelecem diversos níveis de profundidade na imagem, fazem uma pontuação geométrica na cena de modo a evitar que os objetos não pareçam estar flutuando no ar. Este trabalho consiste em apresentar uma proposta para a geração de sombras em objetos modelados pela Geometria Sólida Construtiva. Para tanto foram estudados os assuntos referentes à modelagem de objetos por CSG, algoritmos para a geração de sombras “bem delimitadas” e formas de gerar sombras na Geometria Sólida Construtiva. O processo de geração de sombras em cenas modeladas por CSG, através da aplicação das mesmas operações booleanas envolvidas na modelagem dos objetos, sobre as sombras nem sempre apresenta resultados corretos. Diante disso, foram investigadas outras formas de solucionar o problema. Dentre estas, uma alternativa é a realização de transformações na árvore binária CSG, através de outras operações, envolvendo o uso de complemento com operações de união e interseção, para a modelagem do objeto e geração da sombra correspondente. Com base nos estudos realizados foram implementados dois protótipos que exibem a sombra projetada de objetos modelados por CSG. Na implementação do protótipo A utilizaram-se as técnicas tradicionais de modelagem de sólidos e sombra projetada. Os resultados obtidos com este protótipo serviram de referência. No protótipo B os resultados foram obtidos através da aplicação da zona ativa das primitivas na modelagem dos objetos e a sombra é projetada durante o processo de avaliação de contornos do sólido. Os resultados obtidos com este protótipo são comparados com os resultados do protótipo A e são apresentados como forma de exibir a aplicação do método proposto.
Resumo:
As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).
Resumo:
Este trabalho discute a aplicação de modelos de Pesquisa Operacional como base para o gerenciamento de operações e análise de tecnologias em empresa de transporte de carga. Inicialmente, busca-se contextualizar o escopo deste trabalho dentro do ambiente competitivo atual a fim de que sejam percebidas as conexões entre os sistemas de operações vigentes e os modelos apresentados. Também é feita uma discussão preliminar do conceito de logística, visto que este enseja uma série de acepções para o termo. Em seguida é apresentada uma revisão de algumas ferramentas de modelagem que usualmente são aplicadas a problemas de suprimento, distribuição e transbordo de produtos. Com base nesta revisão é proposta uma abordagem hierarquizada para o tratamento de problemas de logística. Um estudo de caso realizado em uma empresa de transporte de carga busca então aplicar algumas ferramentas de Pesquisa Operacional nos diversos níveis de gerenciamento de operações. Por fim, o trabalho verifica as potencialidades do uso de uma abordagem hierarquizada e a importância da adoção de modelos em empresas de transporte de carga como forma de alavancagem da sua competividade frente as novas exigências do mercado.
Resumo:
A argila é uma matéria-prima básica nos processos de fabricação de pisos e azulejos. Especificações industriais devem ser cumpridas para sua utilização como componente das formulações cerâmicas. A homogeneidade é vital. Nos depósitos minerais fonte desse material, as características cerâmicas da argila, sua representatividade, variabilidade e interação com a geologia local precisam ser bem conhecidas, a fim de propriamente quantificá-la e classificá-la de forma georeferenciada. Isso consubstancia a tomada de decisões mineiras relacionadas. Essa dissertação apresenta uma alternativa metodológica de avaliação de recursos geológicos e reservas recuperáveis de argila cerâmica, em uma perspectiva probabilística. Métodos geoestatísticos como krigagem e simulação estocástica são aplicados em suporte de blocos de lavra. Recursos geológicos ocorrentes nos diversos setores de um depósito estudado são estimados acuradamente. Em sua porção mais favorável reservas recuperáveis são avaliadas, sob critérios cerâmicos e de seletividade mineira, tomados separadamente e em conjunto, em escala global e local Para o estudo de caso apresentado, duas propriedades cerâmicas pós-queima são consideradas, absorção d’água e retração linear, além da espessura do horizonte argiloso. Modelos de cenários extremos e medianos de reservas são construídos, flexibilizando a apreciação do quadro geral obtido, e permitindo assim maior segurança na condução de decisões e eventuais operações mineiras. Comparativos com métodos tradicionalmente utilizados na avaliação deste tipo de depósitos, em suas diversas fases, comprovam as vantagens da metodologia proposta, a qual permite, além da quantificação e classificação cerâmica de reservas, uma incorporação de margem de riscos nas predições realizadas.
Resumo:
Este trabalho procura evidenciar a adequação do Sistema Financeiro Nacional às normas propostas pelo Comitê de Basiléia, que buscam reduzir o risco bancário. Nesse sentido, efetua-se um histórico dos esforços efetuados pelas autoridades monetárias brasileiras com vistas a harmonizar e padronizar as regras de supervisão bancária àquelas sugeridas pelo Comitê, principalmente quanto aos Princípios Essenciais, divulgados em 1997. Em 1994, o Brasil adere à regulamentação proposta internacionalmente através do Acordo de Basiléia (de 1988). A partir disso, absorve de forma cada vez mais rápida as metodologias de regulamentação e supervisão concebidas no âmbito daquele Comitê. Com relação aos Princípios Essenciais, houve a preocupação em implementá-los, de forma ágil, buscando uma supervisão bancária efetiva. Ainda convergente com a orientação de maior segurança do sistema financeiro, destaca-se a constituição do Fundo Garantidor de Crédito - FGC - e da Central de Risco do Banco Central. Também merecem referência a reestruturação do Sistema de Pagamentos Brasileiro; a mudança de critérios para classificação das operações de crédito e provisionamento para créditos de liquidação duvidosa; e a exigência da instituição e manutenção de Sistema de Controles Internos pelas instituições financeiras. Pode-se inferir, finalmente, pela maior solidez do Sistema Financeiro Nacional, após as adequações introduzidas à luz das normas internacionais.
Resumo:
Devido ao aumento da competitividade entre as empresas, torna-se cada vez mais importante obter vantagens, principalmente se os benefícios puderem ser estendidos aos diversos elementos da cadeia de fornecimento. O objetivo deste trabalho é abordar as etapas que foram realizadas durante um programa de desenvolvimento de fornecedores. Este programa partiu da necessidade de uma empresa montadora de máquinas agrícolas melhorar o desempenho de seus fornecedores, auxiliando-os a obter melhorias de processos e operações. As ações desenvolvidas em três fornecedores são descritas e discutidas, tomando como base a Troca Rápida de Ferramentas (TRF), com o objetivo de diminuir o tempo de preparação e melhorar a produtividade do setor gargalo. Os ganhos percentuais com o projeto, sobre o total de vendas de cada fornecedor (F1, F2 e F3), foram 0,93%, 0,91% e 8,13%, respectivamente. Os resultados alcançados após a intervenção foram positivos e reforçam a necessidade de programas de desenvolvimento de fornecedores, como os abordados na literatura. Ao final é apresentado o método utilizado para promover o desenvolvimento de fornecedores, o qual é composto de 10 etapas desenvolvidas junto a empresa e 12 etapas desenvolvidas junto aos fornecedores.
Resumo:
As técnicas de sensoriarnento remoto e geoprocessamento são fundamentais para processamento e integração de dados de mapeamento geológico/geotécnico, principalmente estudos de gerenciamento e planejamento. A área estudada compreende o município de Três Cachoeiras. Litoral Norte do Rio Grande do Sul o qual inclui-se na "Reserva da Biosfera da Mata Atlântica". O município tem st: deparado com problemas de localização de sitios adequados à disposição final dos resíduos sólidos. bem como o assentamento de loteamentos residenciais e industriais, localização de jazidas de extração de material para construção, fontes de abastecimento de água e necessidade de criação de áreas de preservação ambiental. O objetivo deste trabalho foi produzir mapeamentos da área em questão, através da pesquisa geológico-geotécnica desenvolvida com emprego de imagens de satélite e fotografias aéreas, em que as informações foram cruzadas no SIG. Baseado nisto, investigaram-se os aspectos acima mencionados. a partir de uma contribuição geológico/geotécnica ao município, incluindo-se levantamento de campo, fotointerpretação, processamento e classificação de imagens do município de Três Cachoeiras, sendo os dados integrados num sistema de geoprocessamento. Utilizando-se cartas planialtimétricas, fotografias aéreas e imagem de satélite LANDSAT TM5. foram criados planos de informação como o limite da área estudada, a estrutura viária municipal, a delimitação de reservas ecológicas baseadas na legislação ambiental vigente e, por meio do modelo numérico do terreno, a carta de declividade. A fotointerpretação gerou planos de rede de drenagem, litológica. morfoestruturas e formações superficiais. Os dados de campo. sobrepostos às litológicas obtidas por fotointerpretação, produziram a carta litológica. No tratamento das imagem, foram gerados produtos com contraste, operações entre bandas, filtragens e análise de componentes principais, os quais contribuíram parira classificação da imagem e resultando nos planos de rochas/solos e cobertura/uso do solo (carta de uso atual do solo). O cruzamento destas informações permitiu a obtenção da carta de formações superficiais, lidrogeológica que, juntamente com as cartas litológica, declividades e uso atual do solo distribuíram os atributos do meio físico em planos elaborados por novos cruzamentos, que satisfazem o objetivo do estudo, sendo estes planos o produto final, ou seja, cartas de recomendação: a extração de materiais para construção civil; a implantação de obras de infraestrutura; a disposição de resíduos sólidos e loteamentos; geotécnica à agricultura; à implantação de áreas destinadas à preservação ambienta1 e recuperação.
Resumo:
A crescente demanda por produtos de melhor qualidade, diferenciados e com custos competitivos tem forçado as manufaturas a se tornarem flexíveis, capacitando-as a responder às mudanças impostas pelo mercado. A flexibilidade permite que as empresas alcancem a customização desejada através da capacitação do sistema de responder e atuar em tempo real, mesmo em um ambiente de incertezas. Para atuar em tempo real, os sistemas de manufatura precisam de representações eficientes dos planos de produção. Muitas vezes, a atuação em tempo real torna-se inviável devido ao crescimento exponencial no número de planos de produção para cada máquina ou operação adicionada ao sistema. Uma possível solução para este problema é uso de representações adequadas para o espaço de estados. A escolha de uma representação adequada para o espaço de estados influencia na capacidade de reposta em tempo real, pois determina o desempenho computacional do sistema através da utilidade e eficiência dos algoritmos desenvolvidos, tornando possível explorar problemas clássicos de flexibilidade, tais como, seqüenciamento, otimização, etc. Entretanto, a geração de uma representação que trabalhe com o espaço de estados completo de uma manufatura é considerada um problema não polinomial (NP). Esta particularidade dificulta o desenvolvimento de algoritmos que trabalhem com uma manufatura flexível. Assim, a geração de uma representação, que trabalhe com pouca memória computacional e permita o desenvolvimento de heurísticas eficientes, é um importante desafio para uma avaliação efetiva da flexibilidade. Este trabalho objetiva o desenvolvimento de uma representação para o espaço de estados de uma manufatura com flexibilidade de seqüência. Na construção desta representação são aplicadas técnicas de modelagem baseadas na teoria dos grafos e nos princípios de álgebra booleana. Inicialmente, os grafos são utilizados para representar todas as seqüências de operações de uma manufatura, posteriormente estas seqüências são convertidas em formas normais disjuntivas (FND). Por fim, é apresentada uma possível aplicação da representação na FND em modelos de programação linear.
Resumo:
O Modelo Temporal de Versões (TVM Vesions Model) foi proposto com base na união de um modelo de versões com informações temporais. Esse modelo permite o armazenamento de alternativas de projeto, o armazenamento da história dos dados em evolução, bem cmoo a reconstrução do estado da base em qualquer data passada, sem o uso de operações complexas de backup e recovery. Para realizar consultas nesse modelo foi definida uma linguagem de consulta, a TVQL (Temporal Versioned Query Language). Além das consultas básicas realizadas pela linguagem padrão AQL, a TVQL permite novas consultas que retornam valores específicos das características de tempo e versões, estabelecendo um comportamento o mais homogêneo possível para elementos normais e temporais vesionados. O objetivo principal deste trabalho e possibilitar a realização de consultas TVQL em um banco de dados convencional. Nesse contexto, o mapeamento da TVQL é implementando através da tradução de todas as propriedades e funções definidas na TVQL para SQL. Para que isso seja possível é necessário queos dados também estejam nesse banco de dados. Então, faz-se necessário o mapeamento das classes da hierarquia do TVM, bem como das classes da aplciação, para o banco de dados. Adicionalmente, é implementado um protótipo de uma interface de consultas realizadas em TVQL, para testar o funcionamento tanto da TVL como do seu mapeamento.
Resumo:
A necessidade cada vez maior de efetuar a reabilitação de estruturas que apresentam manifestações patológicas faz com que os profissionais da área busquem continuamente aperfeiçoar os meios tradicionais utilizados para este fim e investigar novos materiais que apresentem vantagens técnicas e econômicas. A utilização de tecidos de fibra de carbono para reabilitação ou reforço de estruturas de concreto armado apresenta-se como uma nova alternativa que tem despertado grande interesse tanto no meio científico quanto no meio profissional, justificando-se o seu estudo. A presente pesquisa investiga a sanidade do reforço quando submetido a elevadas temperaturas, uma vez que o risco de perda da integridade durante um incêndio constitui uma das principais preocupações no que se refere a esta nova técnica, pois a aderência do tecido ao substrato é realizada com adesivo epóxi, altamente vulnerável ao efeito do calor. A degradação em termos de perda de resistência do reforço é avaliada para temperaturas variando de 80 °C à 240 °C e tempos de exposição de 30 à 120 min. Proteções passivas com argamassa de revestimento e gesso aplicadas sobre a matriz de epóxi, como forma de atenuar a degradação do polímero, são também investigadas Pesquisas e várias combinações destas variáveis e os resultados indicam que o adesivo epóxi apresenta um processo de volatilização crescente com o aumento da temperatura, comprometendo a eficácia da técnica de reforço; no entanto, a aplicação de revestimentos incombustíveis e isolantes sobre os elementos reforçados retarda este fenômeno. O estabelecimento do que se constitui em boa técnica para a aplicação de reforço com tecidos de fibra de carbono é de vital importância para evitar o colapso de elementos estruturais reforçados ou, ao menos, garantir estanqueidade e isolamento dos mesmos por um intervalo de tempo suficiente que possibilite a retirada dos ocupantes e as operações de combate ao incêndio em condições de segurança.
Resumo:
O presente trabalho permite avaliar, em valores monetários, o impacto, ou responsabilidade, dos diferentes tipos de veículos nos custos totais de manutenção das rodovias. O objetivo é alcançado através do desenvolvimento de um conjunto sistematizado de procedimentos que quantificam todos os custos, não só os impostos pelos veículos aos pavimentos, como também todos demais decorrentes da conservação dos demais elementos que constituem a rodovia. O trabalho esta organizado numa estrutura que divide os custos envolvidos na manutenção rodoviária em dois grandes grupos, designados, de acordo com os conceitos econômicos, de custos fixos e custos variáveis. Dessa forma, os procedimentos desenvolvidos correlacionam o produto final de uma rodovia, as viagens realizadas pelos veículos, com os custos decorrentes de seu desgaste, dividindo-os em duas parcelas, uma que não se altera com o nível de uso, chamada parcela fixa, e outra, sensível ao nível de utilização da rodovia, chamada parcela variável. A partir dessa divisão e com o emprego de fatores que relacionam os níveis de ocupação e degradação da via pelos veículos, são determinados os valores monetários que representam quanto cada um desses veículos deve ser responsabilizado nos custos totais necessários à manutenção rodoviária. No desenvolvimento do trabalho foram utilizados os conceitos e definições das operações de conservação descritas nos manuais técnicos do Departamento Nacional de Estradas de Rodagem - DNER. Os dados referentes aos custos e às características das rodovias foram retirados de pesquisas realizadas no Estado do Rio Grande do Sul, e as deteriorações decorrentes do uso com seus respectivos custos foram obtidas através de simulações com o uso do Highway Design and Maintenance Model - HDM III.
Resumo:
Este trabalho apresenta uma metodologia para a avaliação de aquecedores de panela de aciaria e de práticas de movimentação de panelas em uma aciaria elétrica. O objetivo final é a redução da variabilidade do estado térmico da panela durante o vazamento do aço do forno elétrico. Neste estudo são investigados os aquecimentos realizados nos dois tipos de aquecedores existentes e as operações com as panelas durante a etapa sem aço do ciclo das panelas. A eficiência dos aquecedores são comparadas através de ensaios de aquecimento com panelas instrumentadas e a técnica de termografia. A análise da movimentação de panelas é realizada pelo levantamento dos dados operacionais diretamente na usina.Com a identificação dos problemas, são propostas soluções que minimizem seus efeitos sobre o estado térmico da panela. Finalmente, os resultados das soluções propostas, medidas diretamente na aciaria, comprovam que estas medidas contribuíram para melhorar o estado térmico da panela no vazamento e consequentemente o controle sobre as perdas térmicas do aço na panela.
Resumo:
O desenvolvimento e manutenção de software fazem parte de um processo intrinsecamente difícil e que consome tempo e custos, principalmente quando o sistema consiste de milhares de linhas de código. Por isso, sistemas de visualização de software objetivam prover mecanismos para construir representações visuais de informações sobre programas e sistemas, através das quais o programador pode analisar e compreender características de sua estrutura e funcionamento em um maior nível de abstração do que o código fonte. Assim, ferramentas visuais de software que suportam as tarefas de desenvolvimento, depuração, manutenção e reutilização tornam-se mais necessárias pelo fato de ajudarem a reduzir a complexidade inerente do processo de compreensão. Esse trabalho tem como objetivo principal o desenvolvimento de um visualizador que exiba as informações existentes nos programas de forma mais rápida e legível, evitando que o programador/analista tenha que percorrer as linhas de código. O texto inicialmente situa a área de visualização de informações, abordando a área de visualização de software, uma vez que a visualização de software é assim chamada por tratar da visualização de informações que são extraídas de programas. Em seguida, é apresentado um estudo de caso baseado no desenvolvimento dos sistemas da empresa Benfare Informática, no qual caracteriza-se a necessidade de ferramentas que auxiliem a compreensão de programas, com o objetivo de otimizar as operações de manutenção e desenvolvimento de programas. O restante do trabalho trata do sistema VisProgress que foi um protótipo desenvolvido como ferramenta de apoio para a equipe de desenvolvimento da empresa e como forma de avaliar o uso de técnicas de visualização em tal situação. A ferramenta desenvolvida é um visualizador de informações que percorre programas escritos em Progress, ferramenta de desenvolvimento utilizada pela empresa, e extrai as informações encontradas nos programas. A visualização é dividida em três partes. A primeira permite a visualização de informações textuais extraídas diretamente do código fonte dos programas que compõem os sistemas, a segunda faz a visualização de um grafo que representa a chamada de programas, e a terceira e última faz a visualização também de um grafo, porém representando o compartilhamento de variáveis entre os programas. A obtenção dos grafos foi construída em Delphi, porém a visualização gráfica é feita através da ferramenta Dotty, ferramenta específica para visualização de grafos. Após a descrição do protótipo implementado, são apresentados os resultados obtidos com a avaliação da ferramenta feita nas empresas Benfare Informática e Dzset Soluções e Sistemas para Computação.
Resumo:
Esta tese objetiva identificar os impactos dos investimentos em Tecnologia de Informação (TI) nas variáveis estratégicas e na eficiência dos bancos brasileiros. Para a realização da investigação, utilizaram-se vários métodos e técnicas de pesquisa: (1) entrevista com executivos para identificar o papel da TI nos bancos; (2) survey com executivos dos bancos para selecionar as variáveis estratégicas organizacionais em que os efeitos da TI são mais significativos; (3) entrevista com executivos para adaptar as variáveis como input e output observáveis em contas de balanço; e (4) método de Pesquisa Operacional para elaborar um modelo de análise de eficiência e aplicar a técnica de Data Envelopment Analysis (DEA) para avaliar a efetividade de conversão dos investimentos em TI. A entrevista exploratória com os executivos dos bancos permitiu identificar como os bancos utilizam a TI e o seu papel como ferramenta estratégica. O processo de validação e purificação do instrumento (questionário) e dos constructos utilizados na survey fez uso de procedimentos qualitativos e quantitativos, como: validade de face e conteúdo, card sorting, análise de fidedignidade (coeficiente alfa de Cronbach), análise de correlação item- total corrigido (CITC), análise fatorial exploratória nos blocos e entre blocos, e análise fatorial confirmatória. O instrumento também foi validado externamente com executivos de bancos americanos. A partir do conjunto final de construtos, foram identificados variáveis de input e output observáveis em contas de balanço visando à elaboração e à definição do modelo de análise de eficiência. O modelo de eficiência estrutura-se no conceito de efetividade de conversão, que pressupõe que os investimentos em TI, combinados com outras variáveis de input (despesas com pessoal, outras despesas administrativas, e despesas de internacionalização) transformam-se em output (receitas líquidas de intermediação financeira, de prestação de serviços e de operações internacionais). Uma característica adicional do modelo é a representação em dois estágios: os investimentos em TI geram incremento nas receitas, mas esta relação é intermediada pela acumulação de ativos, financeiros e não financeiros. Os dados de balanço dos 41 bancos incluídos na amostra, de 1995 a 1999, foram fornecidos pelo Banco Central do Brasil. A aplicação do modelo na amostra selecionada indica claramente que apenas investir em TI não proporciona efetiva eficiência. Por outro lado, os bancos que mais investiram em TI no período analisado ganharam eficiência relativamente ao conjunto de bancos analisados. Dentre os resultados desta tese, podem ser destacados: o modelo de pesquisa, o conjunto de constructos e o instrumento (questionário), o processo de observação de input e output em contas de balanço e o modelo de análise de eficiência.