842 resultados para Distribuições de probabilidades


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho discutimos vários sistemas de dígitos verificadores utilizados no Brasil, muitos deles semelhantes a esquemas usados mundialmente, e fazemos uma análise da sua capacidade de detectar os diversos tipos de erros que são comuns na entrada de dados em sistemas computacionais. A análise nos mostra que os esquemas escolhidos constituem decisões subotimizadas e quase nunca obtêm a melhor taxa de detecção de erros possível. Os sistemas de dígitos verificadores são baseados em três teorias da álgebra: aritmética modular, teoria de grupos e quasigrupos. Para os sistemas baseados em aritmética modular, apresentamos várias melhorias que podem ser introduzidas. Desenvolvemos um novo esquema ótimo baseado em aritmética modular base 10 com três permutações para identificadores de tamanho maior do que sete. Descrevemos também o esquema Verhoeff, já antigo, mas pouquíssimo utilizado e que também é uma alternativa de melhoria para identificadores de tamanho até sete. Desenvolvemos ainda, esquemas ótimos para qualquer base modular prima que detectam todos os tipos de erros considerados. A dissertação faz uso ainda de elementos da estatística, no estudo das probabilidades de detecção de erros e de algoritmos, na obtenção de esquemas ótimos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo apresentar uma estimativa preliminar do volume de recurso contingente não-convencionais de folhelhos oleígenos (oil shale) na Formação Tremembé através de métodos probabilísticos aplicados à informações compiladas de bibliografias existentes sobre a bacia. Como base para esta estimativa utilizou-se informações obtidas através de sísmica 2D, poços existentes na área e perfis geoquímicos. Através da interpretação dos mesmos foram gerados os valores de inputs para os parâmetros utilizados no cálculo, como: espessura econômica, densidade do minério e valor de Ensaio Fisher (Litros de óleo por tonelada de rocha). Para a análise foi construída uma planilha Excel no qual já descrito cada parâmetro do cálculo. Foi utilizado o software @Risk, da Palisade Inc., que é capaz de atribuir distribuições estatísticas a parâmetros utilizados no cálculo obtendo, a partir do método Monte Carlo, distribuições dos possíveis resultados. A metodologia apresentada se demonstra mais adequada ao caso em estudo que o método determinístico, devido a restrição e ausência da precisão dos dados o que aumentaria as incertezas e as chances de erro no cálculo do volume, podendo impossibilitar uma avaliação, no caso do segundo. A metodologia probabilística ao mesmo tempo em que permite uma avaliação preliminar na ausência de dados precisos, ela gera cenários probabilísticos de resultados, possibilitando a antecipação da tomada de decisões em um projeto, permitindo sua continuação ou abandono.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nivel educativo: Grado. Duración (en horas): De 31 a 40 horas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresenta-se neste trabalho um estudo sobre o impacto do empilhamento de eventos (pile-up), nas distribuições das variáveis comumente utilizadas para identificar eventos difrativos, na topologia de difração dura simples produzindo dijatos, nas condições do CMS para baixa luminosidade (2 x 1033 cm -2 s-1). O cenário de baixa luminosidade citado acima equivale aproximadamente a 5 eventos de pile-up em média por cruzamento de pacotes. Para simular o sinal, difrativos (com e sem pile-up), usamos o gerador POMWIG (1). Para os eventos não-difrativos (com e sem pile-up), utilizamos o gerador PYTHIA (2),bem como para a produção dos eventos de pile-up (eventos simulados utilizando eventos de minimum bias).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A filosofia viveu um tempo de luminosidade crua em que havia contentamento (pelo menos entre os filósofos dignos de serem estudados) com a postulação das condições de possibilidade que cabiam no horizonte que essa luz podia, então, iluminar. Tudo que escapasse desse horizonte era obscuridade, irracionalidade, mera especulação e, pior de todas as ofensas: metafísica. Mas, alguma filosofia do séc. XX encontrou uma outra distribuição de luminosidade que permitiu um pensamento em claro-escuro, em tonalidades nuançadas em que a nitidez absoluta dos contornos se viu fluidificar, em que as figuras puras e sólidas se mostraram como híbridas, nebulosas derramadas, em que os objetos entraram na história e os homens se misturaram com a natureza, em que os movimentos do mundo e as imagens na consciência saíram da dualidade das qualidades primárias e secundárias e se aventuraram em novas perspectivas (aventuras que ainda atravessam desde a fenomenologia até o cinema). É neste cenário de novas distribuições que reaparece a questão da individuação apontando para uma outra concepção do indivíduo, não mais substancial e suporte de qualidades, não mais ancorado nos pares matéria e forma, atual e potencial. Tais pares se revelam insuficientes por não darem conta das impurezas que vêm à tona e das surpreendentes possibilidades inventadas (simbioses, alianças, infecções) e não somente atualizadas a partir de um potencial (filiação, reprodução). Nesse novo modo de compor, o atributo não mais se remete a um predicado qualidade, mas ao acontecimento, não mais às possibilidades latentes, mas à potência a ser inventada nas composições, nas relações constituintes dos diferentes modos de existência. Simondon foi o primeiro filósofo a levar em conta, de modo específico, o indivíduo se inventando em composição, daí ter renovado a questão da individuação e transformado o estatuto da relação. O ser é relação, tal é, com Simondon, a proposição que passa a figurar no centro do pensamento da individuação. Mas se, por um lado, havia essa promoção da relação, por outro lado, parecia não haver a liberação dos modos que, enfim, remetiam a uma natureza dos possíveis. Mesmo não funcionando como princípio, essa natureza parecia capturar os modos num potencial, de tal maneira que um novo humanismo, tão sufocante quanto qualquer outro, acompanhava toda a produção de Simondon. Não à toa, sua narrativa dos diferentes modos se fecha no encontro de uma unidade capaz de suportar o multirealismo dos híbridos que surgiam por toda parte. As metas, os sentidos do devir que povoam a obra de Simondon não seriam os ecos de uma velha moral da pureza, da luminosidade branca?Para escapar desse rebatimento da aventura dos modos em tipos privilegiados de relação que levavam a restaurar a unidade perdida, era preciso se lançar na inocência do processo das inumeráveis atividades de um tecido sem base, jogo de linhas impuras em cruzamentos inventados a cada momento. Nesse sentido: era o pensamento especulativo, expresso em sua própria escrita em zig-zag, de Whitehead já um antídoto aos possíveis rebatimentos da nova filosofia da individuação num mundo por demais reconhecido? É esse o espírito da composição nesse trabalho: a individuação simondoneana com a insistência em se entregar à aventura inocente dos processos se fazendo que se encontra em Whitehead (e nos muitos aliados que foram convocados para que outras músicas se façam ouvir).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O gerenciamento do tempo nos projetos de construção civil usualmente utiliza algoritmos determinísticos para o cálculo dos prazos de finalização e algoritmos PERT para avaliação da probabilidade de o mesmo terminar até uma determinada data. Os resultados calculados pelos algoritmos tradicionais possuem defasagens nos prazos se comparados aos encontrados na realidade o que vem fazendo com que a simulação venha se tornando uma ferramenta cada vez mais utilizada no gerenciamento de projetos. O objetivo da dissertação é estudar o problema dos prazos de finalização dos projetos desenvolvendo novas técnicas de cálculo que reflitam melhor os prazos encontrados na vida real. A partir disso é criada uma ferramenta prática de gerenciamento do tempo de atividades de projetos de construção enxuta baseada em planilha eletrônica onde serão utilizadas técnicas de simulação a eventos discretos, com base em distribuições de probabilidade como, por exemplo, a distribuição beta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente pesquisa tem por objetivo implementar e avaliar um programa de inserção de jovens com deficiência intelectual em atividades laborais na Faculdade de Educação da Universidade do Estado do Rio de Janeiro.Para tal, foi utilizado o conceito de emprego customizado, que baseia-se na criação e/ou adaptação de postos de trabalho em empresas e outras instituições, se adequando a demanda do empregadorcom as habilidades do sujeito com deficiência, de forma a criar uma função que atenda às necessidades de ambas as partes. Um dos procedimentos da customização do trabalho é o Perfil Pessoal Positivo PPP, uma estratégia para traçar as habilidades e dificuldades dos jovens e adultos com deficiência, de forma a facilitar sua inserção no mercado de trabalho e outros espaços sociais. Participaram da pesquisa quatro jovens com deficiência intelectual, denominados treinandos indicados pelos professores de uma escola especial da rede pública do Estado do Rio de Janeiro, oriundos decursos de formação inicial e continuada em auxiliar de serviços gerais e auxiliar de contínuo-reprografia. Utilizou-se a metodologia de pesquisa-ação, com dados colhidos através de entrevistas semiestruturadas com os sujeitos com deficiência intelectual e os funcionários da Faculdade de Educação, assim como observação de seu desempenho. Como dados complementares, também foram realizadas entrevistas semiestruturadas com as mães dos jovens e os funcionários da Faculdade de Educação que aturaram diretamente com os treinandos. As entrevistas iniciais com os treinandos serviram como base para traçar seu o PPP, e determinar que atividades seriam mais adequadas para eles. Já as realizadas com os gestores da Faculdade, visaram compreender a dinâmica de funcionamento e as necessidades de trabalho da instituição.A elaboração do PPPpermitiu romperas barreiras impostas pelas exigências do mercado de trabalho, como escolarização mínima, capacitação, entre outras, pois, compreendendo as características do sujeito, é possível encontrar funções laborais que se adequem às suas singularidades e, ao mesmo tempo, atendam às necessidades do empregador. Concluímos, com base nos dados colhidos, que analisar o ambiente de trabalho com o objetivo de oferecer mão deobra adequada para a demanda é pré-requisito para a contratação e inclusão laboral de pessoas com deficiência. A customização do emprego contribui para a eliminação das barreiras atitudinais e preconceitos, aumentando as probabilidades de um desempenho e produção laboral satisfatória, beneficiando, tanto a instituição quanto o funcionário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A síndrome de imunodeficiência adquirida (AIDS) é um problema de saúde pública que alcançou grandes proporções. Na ausência de uma vacina eficaz ou tratamento efetivo para a doença, esforços têm ser concentrados na prevenção. As políticas de saúde adotadas pelo governo brasileiro têm resultado em estabilização da enfermidade no país na faixa etária mais jovem, muito embora essa tendência não venha acontecendo nos outros grupos etários mais velhos. Verificar a incidência da AIDS em indivíduos idosos, no município de Niterói, RJ, de acordo com sexo, idade, período e coorte de nascimento de 1982-2011, além de analisar a dinâmica espacial da epidemia de AIDS em idosos (indivíduos com 60 anos ou mais) no estado do Rio de Janeiro no período de 1997-2011, são os objetivos deste estudo. Os dados da população por idade, sexo e grupo, foram obtidos a partir de: censos populacionais, contagem da população (1996), projeções intercensitárias, informações do Sistema de Informações de Agravos de Notificação, de Mortalidade e de Controle de Exames Laboratoriais. As taxas de incidência por 100 000 foram calculadas para as unidades geográficas através da contagem do número de novos casos de AIDS em indivíduos com 60 anos ou mais e tamanho da população do município no mesmo grupo etário. Para avaliar a dependência espacial das taxas foi calculado o índice de Moran global. Moran Mapas foram construídos para mostrar regimes de correlação espacial potencialmente distintos em diferentes subregiões. Distribuições de probabilidade e método Bayes empírico foram aplicados para a correção das taxas de incidência da AIDS. Ocorreram 575 casos de AIDS em residentes de Niterói com ≥50 anos de idade. Tendência crescente de taxas de incidência ao longo do tempo foi detectada em ambos os sexos. No estudo da dinâmica espacial da incidência da AIDS em idosos, Rio de Janeiro, no período de 1997 a 2011, as taxas entre homens e mulheres permaneceram flutuantes ao longo de todo o período. Não foi possível detectar correlação significativa global, usando o índice global de Moran. Na costa sudeste do Estado, onde se localizam as grandes áreas metropolitanas (Rio de Janeiro e Niterói), observaram-se grupos de cidades com taxas de até 20 casos por 100 000 hab. Esta concentração se torna mais pronunciada em períodos subsequentes, quando parece ocorrer propagação gradual da epidemia da costa sul até o norte do Rio de Janeiro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os profissionais da área da saúde formam um dos grupos mais vulneráveis à infecção pelo Mycobacterium tuberculosis (Mtb). Segundo estimativas da Organização Mundial de Saúde (OMS), 8,8 milhões de pessoas estavam infectadas pelo Mtb e ocorreram 1,4 milhão de óbitos por tuberculose (TB) em 2010. A identificação de pessoas com Infecção Latente Tuberculosa (ILTB) é considerada pela OMS como uma prioridade no controle da doença, especialmente em países em desenvolvimento em que a incidência da doença ativa tem apresentado redução. O objetivo do presente trabalho foi avaliar, no Brasil, o custo-efetividade dos testes Prova Tuberculínica (PT) e Quantiferon TB Gold-In-Tube (QTF-GIT) no diagnóstico e tratamento da ILTB em profissionais de saúde atuantes na atenção básica, sob a perspectiva do Sistema Único de Saúde (SUS), comparando cinco estratégias que incluem o QTF-GIT, distintos pontos de corte para a PT e uso sequencial dos dois testes; e analisar o impacto do tabagismo sobre o risco de ILTB entre os profissionais de saúde, destacando-se a categoria da Enfermagem. Foi realizada uma avaliação econômica completa do tipo custo-efetividade, conduzida considerando uma coorte hipotética de 10.000 profissionais de saúde atuantes na atenção básica, com horizonte temporal restrito a um ano. Um modelo analítico de decisão, caracterizado por uma árvore de probabilidades de eventos, foi desenvolvido utilizando o software TreeAge ProTM 2013 para simular os resultados clínicos e impactos econômicos em saúde da nova tecnologia diagnóstica (QTF-GIT) versus a PT tradicional. Esse modelo simulou cinco estratégias diagnósticas para detecção e tratamento da ILTB: (a) PT, usando ponto de corte de 5mm; (b) PT, usando ponto de corte de 10 mm; (c) teste QTF-GIT; (d) PT, com ponto de corte de 5mm, seguida de teste QTF-GIT quando PT positiva; (e) PT, com ponto de corte de 10mm, seguida de teste QTF-GIT quando PT positiva. Foi realizada análise de sensibilidade determinística univariada. Na determinação dos fatores associados à ILTB, foi elaborado um modelo de regressão logística múltipla com seleção hierarquizada, utilizando o software Stata. A estratégia mais custo-efetiva foi a PT no ponto de corte ≥10mm, considerando como medida de desfecho tanto o número de indivíduos corretamente classificados pelos testes assim como o número de casos de TB evitados. A utilização isolada do QTF-GIT revelou-se a estratégia de menor eficiência, com RCEI= R$ 343,24 por profissional corretamente classificado pelo teste. Encontrou-se risco à ILTB significantemente maior para sexo masculino [OR=1,89; IC 95%:1,11-3,20], idade ≥ 41 anos [OR=1,56; IC 95%: 1.09-2,22], contato próximo com familiar com TB [OR=1,55; IC 95%: 1.02-2,36], status do tabagismo fumante [OR=1,75; IC 95%: 1.03-2,98] e categoria profissional da Enfermagem [OR=1,44; IC 95%: 1.02-2,03]. Concluiu-se que a PT no ponto de corte de 10mm é a estratégia diagnóstica mais custo-efetiva para ILTB entre os profissionais de saúde na atenção básica e que a ILTB está associada ao hábito do tabagismo e à categoria profissional de Enfermagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O câncer de colo do útero é o terceiro tipo de câncer mais frequente em mulheres no mundo, e a infecção persistente pelo papilomavirus humano (HPV) oncogênico é condição necessária, mas não suficiente para seu desenvolvimento. As oncoproteínas virais E6 e E7 interferem direta ou indiretamente na ação de várias proteínas celulares. Entretanto, as variantes proteicas, resultantes de polimorfismos genéticos, podem apresentar comportamento distinto mediante a infecção pelo HPV. O objetivo deste estudo foi avaliar possíveis associações entre polimorfismos nos genes TP53 (p53 PIN3, p53 72C>G) e p21 (p21 31C>A) e o desenvolvimento de neoplasias cervicais, considerando os níveis de expressão das proteínas p53, p21, p16 e ciclina D1, e fatores de risco clássicos para o câncer cervical. Foram selecionadas 466 mulheres residentes no Rio de Janeiro, 281 com diagnóstico histopatológico de neoplasia cervical de baixo (LSIL) e alto grau (HSIL) e câncer (grupo de casos) e 185 sem história atual ou pregressa de alteração citológica do colo uterino (grupo controle). A técnica de PCR-RFLP (reação em cadeia da polimerase - polimorfismo de comprimento de fragmento de restrição), foi empregada na análise dos polimorfismos p53 72C>G e p21 31C>A, usando as enzimas de restrição BstUI e BsmaI, respectivamente. A avaliação do polimorfismo p53 PIN3 (duplicação de 16 pb) foi feita por meio da análise eletroforética direta dos produtos de PCR. A expressão das proteínas p53, p21, p16, ciclina D1 e Ki-67 e a pesquisa de anticorpos anti-HPV 16 e HPV pool foram avaliadas por imunohistoquímica (Tissue Microarray - TMA) em 196 biópsias do grupo de casos. O grupo controle se mostrou em equilíbrio de Hardy-Weinberg em relação aos três polimorfismos avaliados. As distribuições genotípicas e alélicas relativas a p53 PIN3 e p53 72C>G nos grupos controles e de casos não apresentaram diferenças significativas, embora o genótipo p53 72CC tenha aumentado o risco atribuído ao uso de contraceptivos das pacientes apresentarem lesões mais severas (OR=4,33; IC 95%=1,19-15,83). O genótipo p21 31CA(Ser/Arg) conferiu proteção ao desenvolvimento de HSIL ou câncer (OR=0,61, IC 95%=0,39-0,97), e modificou o efeito de fatores de risco associados à severidade das lesões. A interação multiplicativa de alelos mostrou que a combinação p53 PIN3A1, p53 72C(Pro) e p21 31C(Ser), representou risco (OR=1,67, IC95%=1,03-2,72) e a combinação p53 PIN3A1, p53 72C(Pro) e p21 31A(Arg) conferiu efeito protetor (OR=0,26, IC95%=0,08-0,78) para o desenvolvimento de HSIL e câncer cervical. Observou-se correlação positiva da expressão de p16 e p21 e negativa da ciclina D1 com o grau da lesão. A distribuição epitelial de p16, Ki-67, p21 e p53 se mostrou associada à severidade da lesão. Os polimorfismos analisados não apresentaram associação com a expressão dos biomarcadores ou positividade para HPV. Nossos resultados sugerem a importância do polimorfismo p21 31C>A para o desenvolvimento das neoplasias cervicais e ausência de correlação dos polimorfismos p53 PIN3 e p53 72C>G com a carcinogênese cervical, embora alguns genótipos tenham se comportado como modificadores de risco. Nossos resultados de TMA corroboram o potencial de uso de biomarcadores do ciclo celular para diferenciar as lesões precursoras do câncer cervical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoje em dia, distribuições de grandes volumes de dados por redes TCP/IP corporativas trazem problemas como a alta utilização da rede e de servidores, longos períodos para conclusão e maior sensibilidade a falhas na infraestrutura de rede. Estes problemas podem ser reduzidos com utilização de redes par-a-par (P2P). O objetivo desta dissertação é analisar o desempenho do protocolo BitTorrent padrão em redes corporativas e também realizar a análise após uma modificação no comportamento padrão do protocolo BitTorrent. Nesta modificação, o rastreador identifica o endereço IP do par que está solicitando a lista de endereços IP do enxame e envia somente aqueles pertencentes à mesma rede local e ao semeador original, com o objetivo de reduzir o tráfego em redes de longa distância. Em cenários corporativos típicos, as simulações mostraram que a alteração é capaz de reduzir o consumo médio de banda e o tempo médio dos downloads, quando comparados ao BitTorrent padrão, além de conferir maior robustez à distribuição em casos de falhas em enlaces de longa distância. As simulações mostraram também que em ambientes mais complexos, com muitos clientes, e onde a restrição de banda em enlaces de longa distância provoca congestionamento e descartes, o desempenho do protocolo BitTorrent padrão pode ser semelhante a uma distribuição em arquitetura cliente-servidor. Neste último caso, a modificação proposta mostrou resultados consistentes de melhoria do desempenho da distribuição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Taxas de crescimento populacional são importantes indicadores em estudos sobre a eficiência de espécies de artrópodes como agentes de controle biológico e aspectos de biossegurança relacionados ao possível impacto de agentes biológicos sobre artrópodes não alvo (MAIA et al., 2000). Nesses estudos, dados de oviposição e sobrevivência de cada um dos tratamentos avaliados são condensados em tabelas de vida e fertilidade (TBVF), para posterior estimação dos parâmetros populacionais: taxa líquida de reprodução (Ro), taxas intrínsecas de crescimento (Rm), tempo de duplicação (Dt), intervalo entre geraçãoes (T) e razão finita de crescimento (Lambda). Os testes estatísticos para comparação de grupos com relação a esses parâmetros requerem a quantificação das incertezas (variância, erro padrão, intervalos de confiança) associada às suas respectivas estimativas, em cada grupo. As estimativas dessas incertezas são tradicionalmente obtidas utilizando o método jackknife. Como alternativa aos testes que utilizam estimativas jackknife da variância, propomos o uso de testes permutacionais (MANLY, 1991). Os testes permutacionais (TP) utilizam distribuições empíricas, geradas via alocações aleatórias das unidades experimentais aos tratamentos (grupos). Tais distribuições empíricas são utilizadas testar hipóteses sobre os parâmetros de interesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar de exigir maior grau de dificuldade do que a instalação via pacotes, a instalação via código-fonte oferece uma infinidade de recursos em relação à primeira, tais como: definir a estrutura de diretórios para binários, bibliotecas, módulos, manuais e demais arquivos do SGBD conforme o desejado, o que facilita a organização, localização e manutenção do PostgreSQL; ativar suporte a um determinado idioma, para tradução de mensagens; construir suporte a determinadas linguagens ou módulos; definir alguns parâmetros padrões; além de conceber maior controle e segurança nas atualizações de versões do SGBD, evitando assim, atualizações automáticas indesejáveis por meio do sistema operacional e a conseqüente perda de bases de dados; entre outros. Para este trabalho, foi utilizado o sistema operacional Ubuntu Server 8.04.1, contudo, este tutorial é totalmente aplicável e compatível a outras versões Ubuntu, bem como a outras distribuições Linux, respeitando, é claro, as particularidades de algumas distribuições, como a estrutura de diretórios destes. Quanto ao SGBD PostgreSQL, foi adotado a versão 8.3.4, lançada em Setembro/2008, contudo, este tutorial se aplica também à versões inferiores 8.x.x deste SGBD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este documento consiste no estudo, análise e identificação de uma solução voltada para a recuperação de dados no Sistema Gerenciador de Banco de Dados (SGBD) PostgreSQL. A solução em recuperação de dados, aqui apresentada, foi testada e direcionada para o sistema operacional Linux Ubuntu, porém a mesma é compatível com outras distribuições, bem como passível de ser implementada e executada em outros sistemas operacionais, nos quais funcionam o SGBD PostgreSQL, resguardadas as suas respectivas peculiaridades, ou, basicamente, a nomenclatura e o formato dos comandos empregados relativos ao sistema operacional adotado.