893 resultados para sistema de aquisição de dados
Resumo:
O trabalho busca analisar e entender se a aplicação de técnicas de Data mining em processos de aquisição de clientes de cartão de crédito, especificamente os que não possuem uma conta corrente em banco, podem trazer resultados positivos para as empresas que contam com processos ativos de conquista de clientes. Serão exploradas três técnicas de amplo reconhecimento na comunidade acadêmica : Regressão logística, Árvores de decisão, e Redes neurais. Será utilizado como objeto de estudo uma empresa do setor financeiro, especificamente nos seus processos de aquisição de clientes não correntistas para o produto cartão de crédito. Serão mostrados resultados da aplicação dos modelos para algumas campanhas passadas de venda de cartão de crédito não correntistas, para que seja possível verificar se o emprego de modelos estatísticos que discriminem os clientes potenciais mais propensos dos menos propensos à contratação podem se traduzir na obtenção de ganhos financeiros. Esses ganhos podem vir mediante redução dos custos de marketing abordando-se somente os clientes com maiores probabilidades de responderem positivamente à campanha. A fundamentação teórica se dará a partir da introdução dos conceitos do mercado de cartões de crédito, do canal telemarketing, de CRM, e das técnicas de data mining. O trabalho apresentará exemplos práticos de aplicação das técnicas mencionadas verificando os potenciais ganhos financeiros. Os resultados indicam que há grandes oportunidades para o emprego das técnicas de data mining nos processos de aquisição de clientes, possibilitando a racionalização da operação do ponto de vista de custos de aquisição.
Resumo:
Cada vez mais as empresas vêm enfrentando níveis de concorrência mais altos, menores margens nas vendas e perda de diferenciação de seus produtos e serviços. Por outro lado, o desenvolvimento tecnológico e particularmente a Internet vêm permitindo às empresas ter um contato próximo com seus clientes. Este mesmo desenvolvimento também permite que todos os dados, operações e transações empresas sejam armazenadas, fazendo com que maioria delas possuam grandes bancos de dados. Este trabalho tem por objetivo: • Entender quais as tendências do Marketing e como o surgimento de novos canais como a Internet podem alavancar a posição competitiva das empresas; • Constatar a grande quantidade de dados que as empresas possuem, e qual o potencial de informações contida nos mesmos; • Mostrar como Datamining pode auxiliar na descoberta de informações contidas em meio ao emaranhado de dados, • Desenvolvimento de metodologia em um estudo de caso prático, onde se buscará determinar que clientes têm maiores probabilidades de compra, e quais seus padrões de consumoatravés de um estudo de caso, e como a empresa pode usufruir destas informações; • Mostrar como as empresas podem usufruir das informações descobertas e quais são os valores econômico e estratégico.
Resumo:
A pesquisa analisa a venda propriamente dita das empresas do Sistema Telebrás. Assim, relacionamos a composição acionária das empresas com o modelo da venda em busca da maximização da arrecadação, bem como as principais premissas mercadológicas adotadas pelas empresas de consultoria ao calcular o fluxo de caixa que, descontado, representava a estimativa do valor do negócio. Fazemos algumas considerações quanto ao preço mínimo estabelecido pelo governo e sua relação com o subsídio dados aos empregados para aquisição de ações preferenciais. O capítulo termina com uma análise dos resultados do leilão, inclusive à luz da polêmica levantada alguns meses depois com a divulgação, pela imprensa, de gravações de conversas telefônicas.
Resumo:
O atual ambiente de negócios crescentemente competitivo e turbulento requer das organizações modernas conhecimento profundo sobre as necessidades dos clientes e uma percepção de oportunidades e arrojo não triviais. Neste contexto, a transformação de dados em informações oportunas e precisas é fundamental para subsidiar a gestão. O Planejamento Estratégico Empresarial (PEE) e da Tecnologia da Informação (PETI) vêm modernamente sendo construídos para, de forma alinhada, atender o anseio maior da empresa, qual seja, maximizar seu valor a longo prazo. Este trabalho descreve sucintamente algumas visões sobre estratégia corporativa, sobre a necessidade de alinhamento desta estratégia com a TI e analisa o caso de implementação de um Sistema de Apoio à Decisão pioneiramente desenvolvido e implementado num grande Centro de Diagnósticos Médicos localizado na cidade de São Paulo. A análise do caso está fundamentada na literatura e nas vivências profissionais do pesquisador e fundamenta-se em quatro grandes grupos de fatores: tecnologia da informação, sistemas de inteligência artificial e do conhecimento, recursos humanos e contexto organizacional. A conclusão reitera a importância do alinhamento estratégico e ilustra os resultados positivos que dele se pode esperar.
Resumo:
Este trabalho consiste de um estudo de caso que tem por objetivo principal, avaliar o processo de implementação de um Sistema de Informações integrado em uma Instituição de Ensino Superior, entidade privada, com base no modelo proposto por Walton(1993).No referencial teórico analisaram-se os conceitos de dados, informação,conhecimento, a informação como recurso estratégico nas organizações, os Sistemas de Informação com o uso da Tecnologia da Informação, apresentando seus tipos, evolução, objetivos e, algumas formas de implementação preconizada na literatura. O instrumento de pesquisa adotado foi a entrevista, estruturada com a utilização de um questionário elaborado a partir dos objetivos do estudo e do modelo de Walton (1993). A análise dos dados coletados foi feita através da aderência das respostas com os preceitos do modelo, o que possibilitou constatar sua contribuição para a identificação dos elementos críticos de um processo de implementação de Sistema de Informações integrado, através das fases inter-relacionadas de criação do contexto favorável, desenho, instalação e uso do sistema, com a contribuição das ações da administração em promoverem os atributos-chave essenciais de alinhamento das estratégias de negócio, de organização e de tecnologia, comprometimento e domínio por parte de todos os envolvidos.
Resumo:
O entendimento da manufatura celular passa pelo estudo das rotas de fabricação e pelos métodos de agrupamento de máquinas e de peças. Neste contexto, o objetivo principal deste trabalho é a implemetação de uma ferramenta de auxílio ao projeto de células de manufatura, abordando uma metodologia fundamentada na Tecnologia de Grupo para agrupamento de máquinas em células de manufatura com as respectivas famílias de peças. A base de dados com as informações das peças, das máquinas e das rotas que compõe o fluxo de produção é implementada em um banco de dados relacional. A matriz incidência peça-máquina é montada a partir das rotas armazenadas no banco de dados através de um aplicativo desenvolvido em Visual Basic. Os agrupamentos em famílias de peças e células de manufatura são gerados por três diferentes algoritmos: o Rank Order Clustering (ROC), o Close Neighbor Algorithm (CNA) e um algoritmo heurístico (HEU). São aplicadas restrições referentes a limite de carregamento, tamanho de célula e resolução de situações de “gargalo”. Processados os algoritmos de agrupamento, são analisados os resultados em função da densidade e da eficiência do agrupamento. O sistema apresenta o resultado final em planilhas no formato MS Excel. A primeira planilha, chamada resultados, exibe os valores das restrições de projeto das células (número de máquinas por célula, tempo limite de carregamento e tempo limite para duplicação da máquina), o número de peças (colunas) e de máquinas (linhas) da matriz incidência, os valores de eficiência do agrupamento de peças, do agrupamento de máquinas e do aproveitamento dos recursos, bem como o número de células independentes e a quantidade de máquinas duplicadas, obtidos por cada algoritmo no sistema, destacando os melhores resultados. A segunda planilha mostra a matriz incidência peça-máquina. As demais planilhas apresentam, respectivamente, a matriz diagonalizada com o algoritmo original (ROC e CNA), a matriz diagonalizada levando-se em consideração as restrições de projeto das células (análise ROC, análise CNA e HEU) e por fim, uma planilha relatório. A planilha relatório tabula os mesmos valores citados na primeira planilha e lista as peças associadas a cada família, as máquinas associadas a cada célula, as peças rejeitadas, por não se enquadrarem nos agrupamentos, e que devem ser tratadas fora do ambiente celular e as máquinas duplicadas. A comparação dos resultados é efetuada considerando as características adicionadas aos algoritmos originais. Dos três estudados, as restrições de projeto são tratadas na implementação do HEU. Os demais, ROC e CNA, têm incorporado um pós processamento. Em análises comparativas observa-se a superioridade dos algoritmos ROC e HEU em relação ao CNA e os resultados do ROC são melhores ou iguais aos demais, dificilmente inferiores.
Resumo:
Este estudo busca elaborar um sistema de avaliação do Programa Netuno de gestão da Marinha do Brasil, com base na literatura existente sobre o assunto. A pesquisa bibliográfica tem início com as origens da Administração Pública Brasileira, passa pelas teorias influentes e analisa os instrumentos da administração gerencial que podem ser utilizados. Em seguida são apresentados os Programas GesPública do Governo Federal e Netuno da Marinha do Brasil e características da cultura organizacional militar que podem representar resistências ao processo de modernização da gestão. Também são descritos aspectos da avaliação de programas públicos e da teoria institucional que podem ser utilizados em processos de implementação de programas de gestão. Posteriormente, foram realizadas pesquisas em seis organizações que foram premiadas pelo Prêmio Qualidade do Governo Federal ao implementar o Programa GesPública. Com os dados levantados, foi elaborado um sistema de avaliação do Programa Netuno. Este, ao ser aplicado, identifica as resistências culturais existentes, verifica o cumprimento dos objetivos e identifica medidas para o aprimoramento da gestão nas organizações.
Resumo:
Este trabalho apresenta o desenvolvimento realizado para a implantação do novo sistema de despoeiramento dos Fornos Elétricos a Arco da Aciaria da Gerdau Riograndense. O desenvolvimento do novo sistema iniciou com a necessidade de substituir o antigo sistema de captação, pois este não estava obtendo o desempenho esperado. Os principais resultados obtidos com a implantação deste projeto foram o atendimento das especificações do projeto, comprovado pelos resultados obtidos nas medições de material particulado (MP), uma vez que as concentrações de material particulado medido estão abaixo do limite de emissão estabelecido pelo órgão de controle ambiental, e os resultados do estudo de dispersão, realizados para avaliar a qualidade do ar, utilizando modelagem matemática, atenderam aos limites legais de emissão estabelecidos pelo Conselho Nacional de Meio Ambiente - CONAMA. O estudo de dispersão foi elaborado após a implantação do sistema de despoeiramento, considerando os dados de entrada obtidos nas medições realizadas na saída dos gases da nova casa de filtros. As causas para o sucesso do projeto estão associadas a sólidos conhecimentos das tecnologias disponíveis da equipe responsável pela implantação do investimento, a visitas realizadas em outras empresas siderúrgicas, ao modelamento hidráulico que estabeleceu o dimensionamento correto do sistema e as experiências adquiridas na operação do antigo sistema de despoeiramento, pois orientaram as decisões tomadas no decorrer do projeto. A garantia da continuidade do desempenho do sistema implantado está assegurada por sua inclusão no programa de gestão ambiental da empresa.
Resumo:
A elaboração de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas desenvolvendo, simultaneamente, suas opções e decisões com relação ao mesmo. É necessário considerar a qualidade do processo de elaboração do projeto dependente de uma efetiva comunicação entre os membros da equipe. A indústria da construção civil está sendo beneficiada pelos recursos oferecidos pela tecnologia da informação como, por exemplo, os sistemas colaborativos (extranets de projeto). Estes sistemas corroboram na integração e comunicação entre os membros de um projeto. O objetivo da presente pesquisa foi a apresentação do desenvolvimento de modelo validado de ferramenta computacional projetada para complementar um sistema colaborativo pré-existente. Esta ferramenta foi denominada Sistema de Programação e Controle do Processo de Projeto (SIPROCON/PP). A finalidade do SIPROCON/PP é auxiliar no processo de tomada de decisão dos coordenadores através do monitoramento do cronograma e do fluxo do intercâmbio de informações das atividades geradoras de informações neste processo. O processo de desenvolvimento da ferramenta foi delineado em harmonia com a organização da pesquisa. Neste sentido, é assinalado o uso da prototipação e da simulação como estratégias de pesquisa, utilizados respectivamente na construção e validação do modelo da ferramenta. Ante a necessidade do experimento, foi criada uma atividade lúdica através da qual foi reproduzido o intercâmbio de informações de um processo de projeto denominada Sistemática de Simulação do Processo de Projeto (SS/PP) para validação do modelo da ferramenta. Logo, por meio do uso das simulações foram obtidos os dados correspondentes a validação da modelagem e aplicação do SIPROCON/PP e, ao mesmo tempo, necessários à conclusão da pesquisa. Diante disso, a partir da análise dos dados coletados é apontada a melhoria na qualidade do processo de elaboração do projeto considerando a formação de uma equipe equilibrada de projeto. Isso, fruto do conhecimento mais acurado do coordenador sobre o desempenho de cada projetista.
Resumo:
Introdução: Os tumores do Sistema Nervoso Central (SNC) constituem um grupo heterogêneo de neoplasias e representam o tumor sólido mais comum na infância e adolescência (DEANGELIS 2001). A tumorigênese é um processo de múltiplas etapas envolvendo alterações genéticas que levam a transformação progressiva de células normais para a formação de derivados altamente malignos (HANAHAN 2000). O receptor do fator de crescimento epidermal (EGFR) é um receptor transmembrana que atua num sistema de sinalização fundamental para a fisiologia normal da célula e na manutenção do estado tumorigênico (JORISSEM 2003). O EGFR e seus ligantes estão envolvidos em mais de 70% de todas as neoplasias (YARDEN 2001). Em vários tipos de tumores, incluindo os tumores cerebrais, o EGFR é expresso aproximadamente 100 vezes mais do que o número normal de receptores encontrados na superfície de células normais. A hiperexpressão do EGFR e do ErbB2, tem sido associada com neoplasias que apresentam um comportamento clínico mais agressivo (ALROY 1997). Objetivos: Analisar a expressão do gene do EGFR em tumores primários do SNC. Material e Método: Análise de 18 amostras de tumores primários do SNC em crianças de 01 a 14 anos de idade utilizando uma técnica semi-quantitativa de RT-PCR. A coleta das amostras foi feita no período de 2002 a 2004. Resultados: A amostra foi composta por: um astrocitoma grau I, três astrocitomas grau III, três astrocitomas grau IV, três carcinomas de plexo coróide, 1 craniofaringeoma, três ependimomas, um tumor neuroectodérmico primitivo e três meduloblastomas. 33% da amostra apresentou hiperexpressão de EGFR. Ao analisar-se os resultados de expressão do EGFR nas amostras de astrocitomas verificou-se um aumento na expressão do EGFR para os tumores de grau IV, com exceção de uma amostra que apresentou um índice baixo de 0.13 RNAm. Para as demais amostras de astrocitoma grau 3 a expressão do EGFR foi baixa e os pacientes apresentaram sobrevida com doença, uma vez que não foi possível realizar ressecção cirúrgica total. Conclusão:Ainda que este estudo forneça dados de uma população bastante heterogênea é possível evidenciar diferenças nítidas de expressão do EGFR entre as diversas histologias que compreendem os tumores pediátrico do SNC. Tais resultados sugerem um importante papel do EGFR nos tumores cerebrais da infância e encorajam a continuidade de investigações que elucidem a real aplicabilidade deste fator de crescimento como marcador prognóstico e alvo terapêutico.
Resumo:
A manipulação neonatal é um modelo experimental utilizado para avaliar o modo pelo qual interferências precoces na vida do animal podem alterar funções neuroendócrinas e comportamentos na vida adulta. O procedimento de manipulação neonatal, além de alterar a atividade do eixo hipotálamo-hipófise-adrenal (eixo HPA) em ratos machos e fêmeas, pode causar profundas mudanças na função reprodutiva de ratas adultas. De fato, há evidências de que a manipulação neonatal diminui a atividade do eixo HPA através da redução da síntese e secreção de hormônios que são liberados quando os animais são expostos ao estresse na vida adulta e, além disso, induz à presença de ciclos anovulatórios e diminui a receptividade sexual de ratas. Considerando essas alterações induzidas pela manipulação neonatal que são relacionadas à função reprodutiva de ratas, essa tese teve por objetivo estudar as possíveis causas da alteração no comportamento sexual e ovulação induzidas pela manipulação neonatal. Para isto, além de estudar o perfil hormonal desses animais, o que incluiu os esteróides gonadais, as gonadotrofinas e a prolactina (PRL) em diferentes fases e horários do ciclo estral, o conteúdo do hormônio liberador de gonadotrofinas (LHRH) em algumas regiões do sistema nervoso central (SNC) e na eminência mediana (EM); foi avaliada a possível participação do sistema angiotensinérgico central, através da análise da densidade dos receptores de angiotensina II (Ang II) pela técnica de auto-radiografia, na mediação dos efeitos da manipulação neonatal sobre a função do eixo hipotálamo-hipófise-gônada (eixo HPG) e do eixo HPA. O presente estudo confirmou dados obtidos em nosso laboratório sobre a redução do comportamento sexual e da ovulação em ratas manipuladas no período neonatal. Na tarde do proestro, período no qual ocorrem os eventos necessários para a ovulação na próxima fase do ciclo estral, os resultados mostram que os animais do grupo manipulado têm redução significativa da concentração plasmática de estradiol, de gonadotrofinas e de PRL, assim como um aumento no conteúdo de LHRH na área pré-óptica medial (APOM). A manipulação neonatal também reduziu a concentração plasmática de progesterona analisada após o coito que pode ser decorrente da reduzida estimulação vaginocervical recebida por essas ratas, já que houve uma redução significativa da freqüência de intromissão realizada pelo macho sobre as ratas do grupo manipulado. A densidade de receptores de Ang II na APOM e no núcleo paraventricular do hipotálamo (PVN) também foi alterada pela manipulação neonatal, pois houve redução significativa na densidade desses receptores nessas duas regiões. Em conclusão, a manipulação neonatal reduz profundamente a atividade do eixo HPG e essa alteração é causada por modificações nas concentrações de estradiol no plasma que, por sua vez, pode alterar a secreção de LHRH, de gonadotrofinas e de PRL, comprometendo dessa maneira a ovulação e a receptividade sexual. Contribuindo para os efeitos deletérios da manipulação neonatal sobre a função reprodutiva em ratas, este procedimento pode alterar a implantação do blastocisto devido à redução da secreção de progesterona observada após o coito no grupo manipulado. Alguns dos efeitos da manipulação neonatal parecem ser mediados pelo sistema angiotensinérgico central, como o aumento do conteúdo de LHRH na APOM e a diminuída resposta do eixo HPA observada em animais manipulados submetidos a situações estressantes na vida adulta.
Resumo:
A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.
Resumo:
Como forma de reduzir os riscos, recentes aparatos tecnológicos promovem uma arquitetura funcional de maior controle tanto entre as diversas áreas das empresas quanto nas relações entre seus funcionários. Esses controles têm como uma de suas características o reforço do poder organizacional nas empresas por meio dos objetos-fronteira. O objetivo deste trabalho é a análise desta arquitetura funcional no tocante às práticas de produção de poder entre as várias áreas organizacionais da empresa Embratel, tendo como principal ponto de partida o seu Sistema de Serviço ao Cliente (SSC) caracterizado como objeto-fronteira. A pesquisa classifica-se, quantos aos seus fins, como exploratória e explicativa. No que se refere aos meios de coleta de dados, fez uso de dois instrumentos. O primeiro foi pesquisa de campo para busca de dados e informações na Embratel e foram desenvolvidas por meio de entrevistas cujo objetivo foi investigar a percepção dos indivíduos com relação ao objetofronteira. O segundo foi pesquisa documental, recurso a uso de materiais e documentos oficiais acessíveis internamente na Embratel. O método de pesquisa utilizado no estudo foi a análise de discurso. Entre as principais conclusões do trabalho, é possível destacar que os objetos-fronteira manifestam efeitos de poder por haver uma prática discursiva que os legitima, através de instrumentalidades racionais possibilitadas pelo contexto sócio–histórico. São efeitos de poder conjurados pelos objetos as seguintes categorias: classificar, controlar, selecionar, organizar, padronizar, disciplinar, normalizar, examinar, tornar visível, vigiar, acompanhar, registrar, ordenar, hierarquizar, objetivar as relações, tolher subjetividades, dominar acontecimento aleatório, reduzir a indeterminação envolvida, primar pela eficiência e naturalizar.
Resumo:
Um Sistema gerenciador de Bancos de Dados (SGBD) possui como principal característica a capacidade de gerenciar bases de dados que representam parte do mundo real. Para que essa representação seja fiel, os dados presentes em uma base de dados devem obedecer a diversas regras conhecidas como restrições de integridade. Estas podem ser provenientes da realidade modelada, da implementação ou do modelo de dados utilizado. O suporte oferecido por sistemas gerenciadores de bancos de dados tradicionais não é suficientemente adequado a certas aplicações com necessidades que vão além das convencionais. Diversas aplicações necessitam armazenar dados históricos em conjunto com seus períodos de validade. Outras precisam armazenar versões de conjuntos de dados, gerenciando suas agregações e formas de representação. Através do suporte aos conceitos de tempo e de versão, provido por um SGBD, grande parte dessas necessidades é suprida. Este tipo de banco de dados usa o conceito de tempo para armazenar e controlar dados históricos enquanto o conceito de versão permite a gerência de alternativas de projeto. Existem atualmente diversos trabalhos e implementações relacionados à manutenção de restrições de integridade sobre bancos de dados tradicionais. Entretanto, restrições que consideram a gerência de tempo e de versões sobre dados ainda representam uma área de pesquisa praticamente inexplorada. De acordo com essa realidade, o primeiro objetivo do presente trabalho consiste em definir uma classificação de restrições de integridade para bases de dados com suporte a tempo e versões, a fim de prover uma base para o desenvolvimento de pesquisas relacionadas à sua especificação e manutenção. O segundo objetivo consiste em agregar ao Modelo Temporal de Versões (TVM), que suporta os conceitos de tempo e de versão, uma linguagem que permita a especificação de restrições de integridade. Esta linguagem considera características relacionadas à temporalidade e ao versionamento dos dados e das próprias restrições.
Resumo:
Esse trabalho de dissertação está incluído no contexto das pesquisas realizadas no Grupo de Processamento Paralelo e Distribuído da UFRGS. Ele aborda as áreas da computação de alto desempenho, interfaces simples de programação e de sistemas de interconexão de redes velozes. A máquina paralela formada por agregados (clusters) tem se destacado por apresentar os recursos computacionais necessários às aplicações intensivas que necessitam de alto desempenho. Referente a interfaces de programação, Java tem se mostrado uma boa opção para a escrita de aplicações paralelas por oferecer os sistemas de RMI e de soquetes que realizam comunicação entre dois computadores, além de todas as facilidades da orientação a objetos. Na área a respeito de interconexão de rede velozes está emergindo como uma tentativa de padronização a nova tecnologia Infiniband. Ela proporciona uma baixa latência de comunicação e uma alta vazão de dados, além de uma série de vantagens implementadas diretamente no hardware. É neste contexto que se desenvolve o presente trabalho de dissertação de mestrado. O seu tema principal é o sistema Aldeia que reimplementa a interface bastante conhecida de soquetes Java para realizar comunicação assíncrona em agregados formados por redes de sistema. Em especial, o seu foco é redes configuradas com equipamentos Infiniband. O Aldeia objetiva assim preencher a lacuna de desempenho do sistema padrão de soquetes Java, que além de usar TCP/IP possui um caráter síncrono. Além de Infiniband, o Aldeia também procura usufruir dos avanços já realizados na biblioteca DECK, desenvolvida no GPPD da UFRGS. Com a sua adoção, é possível realizar comunicação com uma interface Java sobre redes Myrinet, SCI, além de TCP/IP. Somada a essa vantagem, a utilização do DECK também proporciona a propriedade de geração de rastros para a depuração de programas paralelos escritos com o Aldeia. Uma das grandes vantagens do Aldeia está na sua capacidade de transmitir dados assincronamente. Usando essa técnica, cálculos da aplicação podem ser realizados concorrentemente com as operações pela rede. Por fim, os canais de dados do Aldeia substituem perfeitamente aqueles utilizados para a serialização de objetos. Nesse mesmo caminho, o Aldeia pode ser integrado à sistemas que utilizem a implementação de soquetes Java, agora para operar sobre redes de alta velocidade. Palavras-chave: Arquitetura Infiniband, agregado de computadores, linguagem de programação Java, alto desempenho, interface de programação.