28 resultados para Maquinas de calcular
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
O objetivo deste estudo foi investigar a organização espaço-temporal dos segmentos da perna e da coxa no saltar à horizontal, verificando as infiuências do organismo e do ambiente (dois tipos de piso: concreto e areia). Participaram do estudo 21 sujeitos, 3 de cada faixa etária: 4, 5, 7, 9, 11, 13 e adulta (X = 19 anos de idade). Os sujeitos foram filmados realizando o saltar à horizontal com marcas desenhadas no centro das articulações do tornozelo, joelho e quadril. Estes pontos foram digitalizados e processados obtendo a posição e velocidade angular dos segmentos da perna e da coxa. A partir da posição e velocidade angular foi possível delinear os gráficos dos atratores (retratos de fase) e calcular os valores dos ângulos de fase para cada segmento, durante a realização da tarefa. Duas reversões para cada segmento, na posição angular, foram identificadas e nestes momentos os valores dos ângulos de fase foram capturados. Analisando as trajetórias dos retratos de fase verificou-se que os segmentos da perna e da coxa apresentaram um conjunto específico de características topológicas, na realização do saltar à horizontal. A análise dos valores dos ângulos de fase, nas duas reversões, indicou que ao longo das faixas etárias e nos dois tipos de piso os segmentos da perna e da coxa apresentaram organização espaço-temporal semelhante, indicando coordenação invariante.
Resumo:
Neste trabalho foi calculada teoricamente a radiação solar direta normal para Porto Alegre e vizinhanças. Para tal fim foi feito um levantamento da insolação horária em Porto Alegre, entre os anos de 1968 a 1982 e, a partir destes como não se dispunha de dados experimentais, calculou-se a radiação solar global efetiva, com o auxílio de uma expressão do tipo Angstrom. A posse destes dados permitiu calcular a radiação direta normal, que se apresenta em forma de tabelas e gráficas. Como um resultado adicional, calculou-se a percentagem de dias aproveitáveis ou não para distintas hipóteses de uso da Energia Solar. Com o intuito de comprovar a validade dos cálculos desenvolvidos, compararam-se os dados de radiação difusa, calculados a partir dos de direta normal, com os obtidos por outras teorias.
Resumo:
A equação de complexidade de um algoritmo pode ser expressa em termos de uma equação de recorrência. A partir destas equações obtém-se uma expressão assintótica para a complexidade, provada por indução. Neste trabalho, propõem-se um esquema de solução de equações de recorrência usando equações características que são resolvidas através de um "software" de computação simbólica, resultando em uma expressão algébrica exata para a complexidade. O objetivo é obter uma forma geral de calcular a complexidade de um algoritmo desenvolvido pelo método Divisão-e-Conquista.
Resumo:
O câncer colorretal é um dos tumores humanos mais freqüentes e a terceira causa de morte relacionada ao câncer no mundo. Apesar de importantes progressos terapêuticos, os resultados na doença avançada ainda são muito modestos. Isto deve-se ao fato de que a droga mais utilizada nesta neoplasia, o antimetabólito 5-fluorouracil (5-FU), foi desenvolvido a mais de 40 anos produzindo taxas de respostas de somente 10-15%. Recentemente, o inibidor da topoisomerase I irinotecan (CPT-11) demonstrou, em carcinoma de cólon avançado, respostas comparáveis tanto em pacientes não tratados quanto naqueles que tiveram recaída após terapia com 5-FU. Estes resultados justificam a avaliação da combinação 5-FU/CPT-11 nesta doença. Apesar das respostas dos estudos clínicos serem promissoras, a melhor seqüência de administração destes agentes ainda não foi determinada. Neste estudo, avaliamos a combinação CPT-11/5-FU quanto ao aumento da inibição do crescimento celular quando comparada com os agentes sozinhos nas linhagens celulares de carcinoma de cólon humano SW620, HT-29 e SNU-C4. Para isto, as células foram expostas às drogas sozinhas ou a várias combinações e seqüências de dose baixa e fixa (IC20) de um dos agentes na presença de dose alta e seriada do outro. As células foram avaliadas imediatamente após os tratamentos e/ou cultivadas por mais 2 dias em meio de cultura sem drogas através de coloração com sulforodamina B. As interações entre CPT-11 e 5-FU foram avaliadas por um programa de computador que permite calcular os índices de combinação (CIs) das drogas indicando sinergismo, adição, ou antagonismo (CI < 1, = 1, ou > 1, respectivamente). As respostas celulares foram relacionadas com as atividades das enzimas timidilato sintase, topoisomerase I e carboxil esterase, que foram determinadas através de ensaio que mede os sítios de ligação e atividade catalítica da enzima, ensaio de decatenação do DNA e método espectrofotométrico, respectivamente. Estando a toxicidade no DNA envolvida no mecanismo de ação das duas drogas, também relacionamos as respostas celulares com a introdução de danos ao DNA por método fluorescente. Para melhor entendermos as interações entre as drogas, examinamos os efeitos da exposição à IC20, IC50 e/ou IC80 do CPT-11 ou 5-FU por 2 h ou 24 h em alvos celulares possivelmente relacionados com a citotoxicidade destes agentes. Estes incluem: capacidade de reparo por excisão do 10 DNA, distribuição das células nas fases do ciclo celular, integridade da membrana plasmática e formação de complexos DNA-topoisomerase I. Para isto, utilizamos método de incorporação de [3H-metil]timidina, citometria de fluxo, liberação de lactato desidrogenase (LDH) no meio de cultura e ensaio de precipitação com SDS, respectivamente. Os estudos de inibição do crescimento celular revelaram valores de IC50 do 5-FU nas linhagens SW620, HT-29 e SNU-C4 de aproximadamente 15, 8 e 2 µM, respectivamente, e do CPT-11 próximos a 2, 2 e 4 µM, respectivamente. As diferentes sensibilidades ao 5-FU nas três linhagens foram determinadas principalmente pela diferença na afinidade ao substrato. As respostas comparáveis obtidas pela exposição ao CPT-11 podem ser explicadas pelo equilíbrio entre as diferentes atividades das enzimas topoisomerase I e carboxil esterase, entre as linhagens. O programa de análise da combinação das drogas mostrou adição ou sinergismo após exposição a IC20 do CPT-11 seguido do 5-FU, nas três linhagens celulares. Por outro lado, o pré-tratamento com IC20 do 5-FU antagonizou a inibição do crescimento mediada pelo CPT-11. Nenhum dos tratamentos simultâneos determinou um aumento na inibição do crescimento nas linhagens SW620 e HT-29; mas mostraram adição ou antagonismo na linhagem SNU-C4. Observamos um significativo acréscimo na introdução de danos ao DNA nas linhagens celulares SW620 e HT-29 somente quando a IC20 do CPT-11 precedeu a IC50 do 5-FU. Já na linhagem SNU-C4, não somente este tratamento, mas também a utilização simultânea dos agentes introduziu mais dano ao DNA. Os tratamentos por 2 h ou 24 h com IC20, IC50, e/ou IC80 do 5-FU ou CPT-11 não causaram mudanças significativas na distribuição das células nas fases do ciclo celular, concentração de LDH no meio de cultura, ou formação de complexos DNA-topoisomerse I. Indicando que alterações nestes processos não estão envolvidas com os efeitos modulatórios dos pré-tratamentos na citotoxicidade das drogas. Entretanto, a incorporação de [3H-metil]timidina no DNA de células tratadas com CPT-11, aumentou em função da dose e tempo de exposição à droga. Este resultado sugere que o dano ao DNA introduzido pelo CPT-11 depende da dose e tempo de exposição podendo ser reparado por mecanismos de excisão. Somente foi observada significativa incorporação de [3H-metil]timidina em células tratadas com IC20 do 5-FU por 2 h, sugerindo que o reparo por excisão só ocorre após exposição por curto período e à doses baixas deste agente. Juntos, os resultados deste estudo mostraram que tanto os efeitos anti-proliferativos quanto a introdução de danos ao DNA pela combinação CPT-11/5-FU em dose baixa e fixa de um agente junto com dose alta do outro, nas linhagens celulares de carcinoma de cólon humano SW620, HT-29 e SNU-C4, dependem da seqüência de administração das drogas. Estes achados podem ter sido determinados pelos diferentes efeitos do tratamento com uma dose baixa dos agentes nos mecanismos de reparo por excisão do DNA.
Resumo:
O objetivo deste trabalho é calcular, pela primeira vez na literatura, os fluxos de emprego (job flows) na indústria gaúcha nos anos 90 e sua relação com o processo de abertura comercial no período. O trabalho propõe o estudo do emprego na indústria através do comportamento das variações do emprego nas empresas individualmente, para identificar a heterogeneidade de comportamento dentro dos setores, ao invés do uso de médias agregadas, que implicitamente supõe um comportamento homogêneo das empresas. Denominamos fluxos de emprego as taxas de criação e destruição do emprego, estimadas em 5,15% e 6,42% ao ano, em média, respectivamente. Destas obtemos a taxa líquida de crescimento do emprego e a taxa de realocação bruta do emprego, estimadas em –1,27 e 11,57%, respectivamente. Em todos os anos da década houve criação e destruição de emprego simultaneamente, sugerindo uma grande heterogeneidade na dinâmica do emprego nas empresas. A perda média de 1 emprego em 100 por ano no período é resultado da abertura de 5 postos e destruição de 6 postos. Além dos fluxos, este trabalho estima e analisa o impacto do câmbio e da abertura comercial do país nestas taxas. As regressões indicaram para, dada uma depreciação de 1% do câmbio, um impacto de 0,10% sobre a criação de emprego e um impacto, simétrico, de –0,097% sobre a destruição de emprego no trimestre seguinte Por outro lado, a abertura comercial ocorrida nos anos 90, medida através do grau de abertura setorial, não se mostrou significativo para explicar as variações da criação de empregos e da realocação, tendo um efeito positivo na variação líquida e negativo na destruição de postos de trabalho na indústria gaúcha nos anos 90, liderado, a princípio, pelas exportações.
Resumo:
Nos últimos 70 anos têm sido apresentadas várias propostas para caracteriza ção da noção intuitiva de computabilidade. O modelo de Computação mais conhecido para expressar a noção intuitiva de algoritmo é a Máquina de Turing. Esse trabalho apresenta máquinas abstratas que representam diferentes formas de comportamento computacional, sendo possível abordar a diversidade entre a Teoria da Computação Clássica (Máquina de Turing) e a Teoria da Computa- ção Interativa (Máquina de Turing Persistente). Com a evolução dos sistemas de computação, surgiu a necessidade de estender a de nição de Máquina de Turing para tratar uma diversidade de novas situações, esses problemas conduziram a uma mudança de paradigma. Neste contexto foi desenvolvido a Máquina de Turing Persistente, que é capaz de fundamentar a Teoria da Computação Interativa. Máquinas de Turing Persistentes (PeTM) são modelos que expressam comportamento interativo, esse modelo é uma extensão da Máquina de Turing. O presente trabalho tem como objetivo explorar paralelismo na Máquina de Turing Persistente, através da formalização de uma extensão paralela da PeTM e o estudo dos efeitos sobre essa extensão, variando o número de tas de trabalho. Contribui- ções desse trabalho incluem a de nição de uma máquina de Turing Persistente Paralela para modelar computação interativa e uma exposição de conceitos fundamentais e necessários para o entendimento desse novo paradigma. Os métodos e conceitos apresentados para formalização da computação na Máquina de Turing Persistente Paralela desenvolvidos nessa dissertação, podem servir como base para uma melhor compreensão da Teoria da Computação Interativa e da forma como o paralelismo pode ser especi cado em modelos teóricos.
Resumo:
A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.
Resumo:
O principal objetivo deste trabalho consiste em utilizar o programa EnergyPlus para simular e analisar o nível de conforto térmico dos moradores de uma edificação térrea simples. Para tanto, escolheu-se e definiu-se uma casa popular padrão que será utilizada para as cidades de Belém, PA, Brasília, DF, São Paulo, SP e Recife, PE. Em relação a esta residência e aos seus moradores foram determinadas diversas características, entre elas, rotinas de ocupação, nível de atividades, fator de vestimenta e número de moradores. Ganhos internos (lâmpadas e equipamentos elétricos) e renovação do ar (infiltração e ventilação) foram, também, considerados neste trabalho. O conforto térmico dos ocupantes da habitação foi simulado e analisado para uma semana representante da época do ano com a temperatura mais elevada, e outra semana que representa o período de frio ou chuvas, ou seja, época do ano com temperaturas mais baixas. Para esta etapa necessitou-se a utilização de arquivos climáticos das quatro capitais brasileiras citadas acima. Os níveis de conforto térmico foram determinados e estudados conforme a metodologia de Fanger, que utiliza os seguintes parâmetros: temperatura, umidade relativa e velocidade do ar, temperatura média radiante do ambiente, vestimenta e metabolismo dos indivíduos. Este estudo foi realizado para um ambiente em evolução livre e analisou-se somente a sala e os quartos da residência. Também não foram considerados neste trabalho os equipamentos elétricos com o intuito de melhorar o conforto térmico como, por exemplo, ventiladores A ferramenta de simulação computacional utilizada para o cálculo do conforto térmico neste trabalho foi o programa EnergyPlus. Para a simulação do conforto necessitou-se calcular a infiltração e a ventilação na residência, e com este intuito utilizou-se uma sub-rotina deste programa baseada no modelo de fluxo de ar multizonal COMIS. Os resultados obtidos para o conforto térmico, através dos valores de PMV, nos dias analisados das quatro cidades em que foi realizado o estudo mostraram-se bastante coerentes com as condições externas e internas da residência, indicando a boa capacidade do programa EnergyPlus nestes casos simulados. Calculado e analisado o conforto térmico das pessoas, melhorias nas estruturas da edificação foram sugeridas a fim da obtenção de condições otimizadas para os ocupantes desta habitação.
Resumo:
No presente trabalho visou-se o estudo da eliminação dos compostos de nitrogênio, NOx, usando a decomposição direta sobre catalisadores de cobre suportado em zeólitas (ZSM-5, MCM-22 e Seta). Os catalisadores foram preparados pelo método de troca iônica com o meio básico obtendose catalisadores com teores de cobre variando entre 0,21% a 3,3% em peso. Os mesmo foram caracterizados através de análise química pela técnica absorção atômica (AA), área superficial (SET), isotermas de adsorção de nitrogênio, difração de Raios-X (DRX) e redução a temperatura programada (TPR). Os testes de atividade catalítica foram realizados através da reação de decomposição do NO em um reator tubular com leito fixo e fluxo contínuo. A mistura reacional era composta por 500 ppm de NO em hélio. Os produtos da reação foram analisados por espectrometria de infravermelho com transformada de fourier (do inglês, Fourier Transformed Infrared, FTIR), usando célula de gás. As medidas de absorção atômica permitiram calcular um nível de troca em relação a CU2+variando entre 7 e 46% nos catalisadores CuZSM-5, CuMCM-22 e CuSeta. As análises de DRX e das isotermas de adsorção de nitrogênio mostraram que a incorporação de cobre não alterou de forma significativa as estruturas das zeólitas. A análise de redução a temperatura programa (TPR) apresentou duas espécias de cobre presente nos catalisadores, Cu2+e Cu+ Na reação de decomposição dos compostos de nitrogênio, a atividade e a seletividade dos catalisadores é influenciada pela temperatura e pela acessibilidade do metal nas cavidades e nos poros das zeólitas. A partir dos testes de atividade catalítica provou-se que os suportes zeolíticos (MCM-22 e Seta) conduziram a valores de conversão de NO comparáveis ou melhores aos do suporte zeolítico ZSM-5, citado como sendo o melhor, até hoje, estudado para tal reação.
Resumo:
As empresas, cada vez mais, buscam a redução de custo, para serem mais competitivas. A necessidade de aumentar a vida útil dos equipamentos, através de técnicas apropriadas é prioritário para manutenção dos ativos. Neste trabalho estudou-se o método para implantação da análise e monitoramento da vibração em equipamentos rotativos, com base nos conceitos da manutenção centrada em confiabilidade, usando técnicas preditiva e pró-ativa de manutenção pela condição, com foco na tarefa. Primeiramente foi analisado o comportamento dos componentes em relação ao processo de falha, como as falhas atuam, os tipos de modos de falha, falhas funcionais e seus efeitos. Após foram analisados e selecionados os critérios de níveis de vibração para os equipamentos rotativos em função da potência e rotação. Também, foi determinado em que condições os espectros seriam analisados em função da amplitude e freqüência de rotação. Então, foram preparados os locais para coletas dos dados de vibração. Assim, os níveis de vibração global foram coletados em função das amplitudes, em cada posição específica do equipamento em seu plano. Isto faz com que, análise dos níveis globais de vibração e o diagnóstico através do espectro e a forma de onda, permitissem encontrar a causa do problema. Finalmente, são apresentados os resultados em níveis de amplitude, espectro após ações, a correção da causa do problema e os tipos de defeitos de tendência de falhas e a implementação do método.
Resumo:
O objetivo principal deste trabalho é avaliar os efeitos dos parâmetros inerciais (massa, localização do centro de massa e momento de inércia) obtidos através de diferentes procedimentos, no valor calculado para as forças e torques articulares resultantes, determinados através da dinâmica inversa. Para tal, pretende-se: (a) implementar um método para calcular a força nas articulações do tornozelo, joelho e quadril, em atividades motoras humanas consideradas bidimensionais, utilizando a técnica da dinâmica inversa, com os equipamentos disponíveis do Laboratório de Pesquisa do Exercício da Escola de Educação Física da Universidade Federal do Rio Grande do Sul; (b) desenvolver um protocolo de medição dos parâmetros inerciais dos segmentos corporais (massa, localização do centro de massa e momento de inércia) do membro inferior, baseado na pesagem hidrostática, e que apresente informações individualizadas; e (c) operacionalizar um protocolo de medição dos parâmetros inerciais dos segmentos corporais (massa, localização do centro de massa e momento de inércia) do membro inferior baseado no uso da tomografia computadorizada. Diversas situações consideradas bidemensionais foram avaliadas, como caminhada, corrida, agachamento, salto com amortecimento, e salto sem amortecimento. Para avaliar o modelo, os dados provenientes do cálculo foram confrontados com valores de força obtidos a partir da instrumentação de uma prótese de joelho (Cervieri, 2000). Os parâmetros inerciais obtidos através da tomografia computadorizada e da pesagem hidrostática apresentaram diferenças superiores a 100%, quando comparados com os valores fornecidos pelas tabelas antropométricas. Entretanto, no que se refere a fase de contato com o solo dos eventos realizados (instante de maiores forças envolvidas), os diversos métodos de obtenção dos parâmetros inerciais, não apresentam diferenças significativas no valor máximo calculado para as forças internas, através da dinâmica inversa.
Resumo:
INTRODUÇÃO. Mulheres pós-menopáusicas apresentam maior risco de desenvolvimento de doença arterial coronariana. Estudos observacionais demonstraram que a terapia de reposição hormonal produz efeitos benéficos no perfil lipídico e na modulação autonômica cardíaca. O aumento da variabilidade da freqüência cardíaca (VFC), até então atribuído à reposição hormonal, não foi testado em estudos randomizados, placebo-controlados, delineados para permitir a comparação entre as duas formas mais utilizadas de reposição hormonal. A VFC de 24 horas calculada pelo método não linear Mapa de Retorno Tridimensional permite avaliar tanto a modulação vagal como a simpática. OBJETIVOS Avaliar a modulação autonômica cardíaca de mulheres pósmenopáusicas através da análise da VFC no domínio do tempo e dos índices do Mapa de Retorno Tridimensional no ECG de 24 horas. Testar a hipótese de que a reposição hormonal contínua, seja com estradiol isolado (TRE), seja com estradiol associado à noretisterona (TRH), por um período de três meses, aumenta a VFC nessas mulheres. MÉTODOS Quarenta mulheres pós-menopáusicas (46 a 63 anos; média = 54,6 ± 4,2) foram randomizadas para um dos três tratamentos, de forma contínua: TRH, estrogenioterapia (TRE) ou placebo, por três meses consecutivos. Previamente, todas as mulheres foram submetidas a exames clínico, ginecológico e laboratorial (glicose, estradiol, HDL, LDL, triglicerídios; mamografia e ultrassonografia transvaginal). O ECG de 24 horas foi gravado em cada paciente, antes e após o tratamento, para calcular os índices da VFC. RESULTADOS Não houve diferença estatisticamente significativa entre os três grupos, após 3 meses de tratamento, nos índices da VFC e do Mapa de Retorno Tridimensional. A TRH diferiu da TRE apenas quanto ao perfil lipídico. A associação com a noretisterona provocou uma redução de 12,4 % no HDL (p = 0,008). CONCLUSÃO Em mulheres pós-menopáusicas, a terapia de reposição hormonal contínua com estradiol, ou com estradiol associado à noretisterona, por um período de 3 meses, não altera a modulação autonômica cardíaca avaliada pela VFC.
Resumo:
Sob a premissa de que a geometria do perfil deposicional das clinoformas pode conter informações sobre a composição textural dos sedimentos que as compõem, bem como sobre a energia da coluna d’água, foi desenvolvido um modelo computacional para a análise teórica dos fatores controladores do tipo de curvatura dos foresets das clinoformas, e, por extensão dos taludes submarinos. Um modelo análogo de suspensão dinâmica foi implementado experimentalmente com um programa em código Matlab, denominado MAXWELL, e é classificado como um modelo estratigráfico, bidimensional, analítico, determinístico, dinâmico, parcialmente dedutivo e parcialmente baseado em regras. Contém um modelo de escoamento de fluido em linhas de corrente, e trata indiretamente a tensão de cisalhamento no domínio de um sistema fechado bifásico líquido-vapor análogo, a partir a proposta de analogias entre os processos de evaporação e de suspensão de sedimentos. É uma abordagem baseada na competência de transporte do fluxo d’água, pois considera temperatura e velocidade de fluxo combinado onda-corrente como variáveis controladoras análogas da intensidade de transferência de energia. Os processos deposicionais marinhos são reduzidos a um fenômeno da superfície deposicional, que é considerada análoga a uma interface líquidovapor dentro de um sistema fechado. A equação de distribuição estatística de velocidades moleculares de Maxwell é usada para calcular a proporção de moléculas na fase líquida, considerada análoga à proporção de sedimentos depositados, bem como a proporção na fase vapor, tomada como análoga à proporção de sedimentos em suspensão. O estado energético do sistema é parametrizado por três potenciais: energia interna, como função do tamanho de grão (areia, silte ou argila); energia térmica do meio, como função da energia hidrodinâmica, e energia gravitacional, como função do declive topográfico As simulações indicam que os principais fatores controladores do perfil deposicional das clinoformas, e por extensão, dos taludes submarinos em geral, são a energia hidrodinâmica da coluna d’água e a granulometria (ou coesão) do sedimento, que podem ser consideradas dois parâmetros comutáveis, isto é, grãos grossos ou coesos podem produzir sobre a geometria das clinoformas o mesmo efeito da baixa energia hidrodinâmica, e vice-versa. Com base no fator de decaimento da energia hidrodinâmica com o aumento da batimetria, foram definidas três ordens de grandeza da intensidade da energia da coluna d’água: baixa energia (10–1), alta x energia (10-2) e muito alta energia (10-3). Com base nesse critério, foram caracterizados quatro tipos de perfis deposicionais de clinoformas: dois tipos sigmoidais e dois tipos exponenciais. Os tipos sigmoidais podem ser de alta energia ou de muito alta energia, e distinguem-se pela granulometria do sedimento e pela distribuição de declividades em relação à dimensão na direção horizontal. Os perfis de tipo exponencial podem ser tanto de baixa energia, quanto de alta energia. A subida relativa do nível do mar afeta o tipo geométrico do perfil deposicional apenas de forma indireta, a partir da retenção da fração grossa do influxo sedimentar na plataforma ou topset. Os principais fatores controladores do ângulo de declividade do perfil das clinoformas são a granulometria do sedimento, a energia hidrodinâmica, a profundidade d’água da bacia e o desvio lateral da corrente de fundo. A dedução da litofácies a partir da geometria das clinoformas parece promissora apenas para os tipos teóricos sigmoidais, que são distintos na forma e no conteúdo sedimentar.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
Atualmente, as empresas estão expostas a uma crescente competiçao global. Neste cenário, as informações gerenciais são fundamentais para auxiliar tomada de decisões precisas e eficientes. Este trabalho propõe uma sistemática informatizada de custeio adaptada ao contexto organizacional das pequenas e médias empresas (PMEs) industriais. O desenvolvimento desta sistemática ocorreu a partir da identificação das suas necessidades de informação e da análise dos principais métodos de custeio neste tipo de organização. Para testar esta sistemática de custeio foram realizadas aplicações pilotos em três PMEs industriais. Destaca-se como resultado deste trabalho a validação de uma sistemática informatizada de custeio, através da qual os gestores das PMES industriais poderão calcular o custo dos produtos, formar o preço de venda dos mesmos e medir diversos indicadores econômico-financeiros de suas empresas.