7 resultados para Migrazione database DBMS processo software dati

em Universidade Federal do Pará


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Face às dimensões continentais do país, as organizações situadas em regiões carentes de fornecedores de desenvolvimento de sistemas de software especializado estão distribuindo suas operações de Information Technology Outsourcing (ITO), para outras regiões. Como consequência, a redução de custos e a melhoria da contratação de serviços em Tecnologia da Informação (TI) têm sido os dois grandes focos da atualidade, incentivando à noção de parceiros múltiplos em operações recíprocas e engajados tanto em relacionamentos formais quanto informais como a terceirização. Os serviços terceirizados são diversificados e entre eles está o desenvolvimento e manutenção de software através de contratos, realizados por organizações situadas em regiões onde existe demanda de software com características específicas. Sabe-se que a terceirização de Software e Serviços Correlatos (S&SC), que inclui as atividades de contratação e gestão do processo de aquisição é uma tarefa complexa e necessária para as organizações, principalmente no que diz respeito às condições envolvidas na contratação. Nesses casos, o exercício da governança tem sido um importante instrumento para, com a terceirização de TI, promover a gestão adequada do risco e o retorno do investimento. Sendo assim, o processo de compra ou venda de um produto de software nesse ambiente é uma atividade que envolve um grande número de conceitos subjetivos, referentes principalmente a características dos produtos. Torna-se maior o desafio quando se trata de software de prateleira modificável (Modified Off-The-Shelf - MOTS) que sofrem modificações e adições de requisitos a cada novo cliente. Neste contexto, buscando adequar as exigências do mercado com as necessidades de métodos e diretrizes para melhoria dos processos de aquisição e fornecimento de software, este trabalho procura explorar as principais características acerca do contrato, do controle de qualidade, e os resultados dos relacionamentos adotados na implementação de projetos de terceirização desenvolvidos á distância. São apresentados os resultados obtidos de um estudo de caso conduzido em uma empresa pública de Medicina Transfusional situada no norte do Brasil que adotou este processo. Por fim, este texto apresenta uma discussão sobre os diferenciais e limitações deste trabalho, e apresenta direcionamentos para investigações futuras neste campo de estudo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A aprendizagem é um processo continuo permeado por construções e reconstruções do conhecimento, com a inserção do computador no processo de ensino aprendizagem, juntamente com a análise das abordagens da Psicologia Educacional e Educação Matemática, foi possível, neste trabalho, a elaboração de um prototipo computacional voltado para o auxilio a aprendizagem da matemática. Este prototipo e um ambiente computacional interativo para auxiliar o aprendizado das quatro operações básicas (adição, subtração,multiplicação e divisão). Assunto este de grande repercussão no ambiente escolar, pois se não aprendido adequadamente, apresenta sérios problemas na evolução do aprendizado matemático do estudante. O trabalho envolve quatro etapas: Aspectos teóricos sobre o processo de ensino aprendizagem, dando-se maior ênfase a abordagem construtivista; Processo de ensino aprendizagem de Matemática, suas dificuldades e perspectivas de mudanças mediante ao aprendizado auxiliado por meios computacionais; concepção e modelagem do prototipo seguido dos Resultados obtidos durante aplicações do mesmo, resultados esses favoráveis a proposta inicial do trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os hidrogeradores são peças chaves no circuito brasileiro de energia, sua indisponibilidade e mau funcionamento podem causar multas altíssimas a concessionárias aplicadas pela ANEEL por não atenderem a demandas e até por paradas impróprias para efetivar manutenções, além de agravar confiabilidade na garantia do fornecimento aos consumidores finais. Para garantir que isso não venha acontecer, a manutenção preditiva fornece técnicas que podem apontar as falhas analisando os “sinais vitais” originados pelo próprio equipamento. Desta forma as condições mecânicas e operacionais são periodicamente monitoradas e quando as tendências são detectadas insalubres, as peças incômodas na máquina são identificadas e programadas para manutenção. Para que essa tendência seja encontrada, utiliza-se da lógica fuzzy para modelar o comportamento dos hidrogeradores, sendo mais especifico: mancais, estator e anel coletor, inferindo conclusões prováveis de falhas. Neste trabalho, mostra o processo de construção do sistema que auxilia no diagnóstico da manutenção preditiva, desde sua metodologia de desenvolvimento por macro-atividades, definição arquitetural, conformidade dos requisitos e análise do conhecimento inserido a inteligência do sistema. O sistema foi desenvolvido em plataforma labview para servir como ferramenta de apoio. Todo o conhecimento inserido no sistema foi obtido com o corpo especialista de Eletronorte e outra parte na literatura, foi necessário aplicar o conceito de regras ao maquina de inferência fuzzy, para uma forma linguística de fácil compreensão, para que os próprios especialistas ampliem e evolua o software.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As indústrias buscam a todo o momento reduzir seus gastos operacionais para aumentar seus lucros e sua competitividade. Uma boa gestão é o fator mais importante, porém uma boa gestão é feita com auxílio de ferramentas que permitam o acesso às informações relevantes para o processo, que tenham bastante influência na tomada de decisões estratégicas, com o menor custo possível. O uso de sensores virtuais tem sido aplicado cada vez mais nas indústrias. Por ser flexível, ele pode ser adaptado a qualquer tipo de medição, promovendo uma redução de custos operacionais sem comprometer, e em alguns casos até melhorar, a qualidade da informação gerada. Como estão totalmente baseados em software, não estão sujeitos a danos físicos como os sensores reais, além de permitirem uma melhor adaptação a ambientes hostis e de difícil acesso. A razão do sucesso destes tipos de sensores é a utilização de técnicas de inteligência computacional, as quais têm sido usadas na modelagem de vários processos não lineares altamente complexos. Atualmente, muitas indústrias já utilizam com sucesso os sensores virtuais, e este trabalho explora a sua utilização, em conjunto com as Redes Neurais Artificiais, em um processo químico em uma importante indústria de alumínio brasileira cujo controle é muito difícil pois é muito difícil extrair medidas da planta dada sua natureza corrosiva e cujas medições exigem certo custo operacional além de estarem sujeitas a ruídos. A aplicação dos sensores virtuais poderá reduzir os intervalos de medições bem como os custos operacionais. Ao longo deste trabalho será apresentada a metodologia de como projetar o sensor virtual utilizando o processo químico como estudo de caso, seguindo a literatura recomendada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho foi verificar o efeito da glutationa (GSH – 0,3mg/mL), no processo de separação, lavagem e capacitação espermática sobre a taxa de produção in vitro de embriões bovinos. O sêmen de um touro foi separado através de gradientes de Percoll e centrifugados duas vezes em meio de fecundação in vitro (lavagem). Espermatozóides foram capacitados in meio de FIV durante 1 h em estufa úmida a 38,5°C e 5% de CO2. Os grupos experimentais foram: Controle (não possui a etapa de lavagem; Grupo 1: sem GSH nas três etapas; Grupo2: GSH somente na capacitação; Grupo3: GSH somente na separação e na lavagem (primeira lavagem); Grupo 4: GSH em todas as etapas. Oócitos provenientes de abatedouro foram maturados in vitro e fertilizados após as preparações feitas no sêmen. Os embriões foram cultivados durante 7 dias com análise da clivagem no 2º dia, taxa de blastocisto e número total de células embrionárias no 7º dia. As taxas de desenvolvimento embrionário foram analisadas pelo qui-quadrado (χ2) e a qualidade embrionária pela ANOVA através do programa Bio Estat 3.0 (AYRES, et al., 2003) com nível de significância de 5%. Não houve diferença estatística efeito do uso da GSH nas diferentes etapas do processo de preparação espermática sobre as taxas de clivagem, blastocisto e eclosão (Grupo Controle: 52, 35 e 50%; Grupo 1: 60, 37 e 44%; Grupo 2: 57, 40 e 50; Grupo 3: 56, 37 e 51%; Grupo 4: 47, 30 e 48%, respectivamente, p>0,05). Também não foi observado diferença estatística quanto ao número de células embrionárias (Grupo Controle: 30,9±21,87, Grupo 1: 57,8±18,26; Grupo 2: 66,2±20,14; Grupo 3: 62,1±22,48; Grupo 4: 76,7±29,28; p>0,05).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O enquadramento de corpos d’água é um instrumento legal do arcabouço da legislação ambiental brasileira contemplado na Política Nacional de Recursos Hídricos, por meio da Lei 9.433/97. A presente dissertação apresenta um modelo de enquadramento participativo aplicado a bacias urbanas, com aplicação na Bacia Hidrográfica do Igarapé Tucunduba, em Belém/PA. A metodologia desenvolvida baseou-se em cinco etapas, que tiveram como base: a pesquisa bibliográfica em fontes diversas; o resgate dos trabalhos já desenvolvidos na bacia que empregaram metodologias informacionais de suporte à decisão; a elaboração do diagnóstico do uso e da ocupação do solo e dos recursos hídricos na bacia hidrográfica; a realização das oficinas de enquadramento com os atores locais; a aplicação do sofware Decision Explore como um Sistema de Suporte a Decisão (SSD), utilizado para organizar os dados gerados nas oficinas; o resgate dos trabalhos sobre qualidade da água realizados na bacia do Tucunduba, e por fim a definição da proposta de enquadramento participativo, com base na a classificação atual do corpo hídrico e nos usos futuros para a bacia do Tucunduba. Com base no reconhecimento de campo, nas discussões sobre os usos atuais e sobre as expectativas dos atores locais em relação ao futuro da qualidade ambiental da bacia e na avaliação dos dados de qualidade de água na bacia obtidos, foi definida uma proposta de classificação dos corpos de água segundo os usos preponderantes atuais e futuros identificados, onde foi estabelecido que esta bacia deveria ser enquadrada na Classe 2, que prioriza o abastecimento para consumo humano após tratamento convencional, a proteção das comunidades aquáticas, a recreação de contato primário, a irrigação e a pesca.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede.