30 resultados para SISTEMA FINANCIERO - ASPECTOS JURIDICOS
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
A adenosina está presente em todos os tipos celulares exercendo um papel homeostático. Em sistema nervoso central e periférico seu papel neuromodulador é observado. A presença de adenosina no meio extracelular permite a ativação de receptores adenosinérgicos específicos, classificados em: A1, A2A, A2B e A3. A ativação dos receptores A1 e A2A, receptores de alta afinidade, está diretamente envolvida com o papel neuromodulador, visto que a sua ativação produz inibição e facilitação da liberação de neurotransmissores, respectivamente. A seleção de qual receptor será ativado, visto que exibem co-expressão em muitas regiões neurais, pode ser feita de acordo com os sítios de liberação ou produção de adenosina extracelular. Desta forma, receptores A1 seriam preferencialmente ativados pela adenosina liberada através dos transportadores bidirecionais de nucleosídeos e os receptores A2A preferencialmente ativados pela adenosina proveniente da degradação do ATP realizada por uma cascata enzimática. A hidrólise de ATP a adenosina é realizada pelas enzimas ectonucleosídeo trifosfato difosfoidrolases e ecto-5’-nucleotidase. Em ratos, a ativação do sistema adenosinérgico exerce seus efeitos neuromoduladores desde fases iniciais de desenvolvimento embrionário, alcançando o padrão adulto mesmo antes do nascimento. A ativação de receptores de adenosina na fase fetal e neonatal foi demonstrada ter como conseqüência o retardo no desenvolvimento global dos animais, bem como, ventriculomegalia e perda de massa cerebral branca. Esta informação levanta a questão da suscetibilidade do cérebro imaturo a certas drogas, tais como a cafeína. A cafeína é uma metilxantina com efeitos estimulantes, a qual exibe como base para seus efeitos o bloqueio inespecífico dos receptores de adenosina. No presente estudo, avaliou-se o efeito da administração de cafeína em diversos parâmetros. A administração aguda de cafeína, mas não a crônica, em ratos adultos foi capaz de alterar significativamente as atividades de hidrólise de ATP no hipocampo e de ADP no estriado. Este resultado poderia estar relacionado com a capacidade plástica do sistema adenosinérgico em restabelecer seu tônus em ratos adultos tratados cronicamente com cafeína. Além disto, verificou-se que a ação direta da cafeína afetou a produção de adenosina. A administração crônica de cafeína na água de beber de ratas mães durante a fase gestacional e lactacional alterou o padrão de hiperlocomoção induzido por MK-801, um antagonista de receptores NMDA glutamatérgicos, nos ratos filhotes aos 21 dias de vida, mesmo quando o acesso a cafeína foi retirado sete dias antes do teste. Além disto, o mesmo tratamento não alterou o limiar de dor de filhotes aos 14 e 50 dias de vida, bem como a analgesia induzida nestes animais aos 50 dias. Entretanto, quando os animais ainda recebiam cafeína no dia do teste, foi observado efeito analgésico somente nos ratos de 14 dias. A análise dos efeitos do tratamento sobre a degradação de acetilcolina e sobre a degradação de nucleotídeos em hipocampo de ratos jovens demonstrou que ambas as atividades foram alteradas. O conjunto de resultados desta tese indica que a intervenção no sistema adenosinérgico durante as fases gestacional e neonatal é capaz de desenvolver adaptações, provavelmente relacionadas ao aumento da expressão de receptores para adenosina, na tentativa de restabelecer o controle modulador adenosinérgico, considerada a importância dos sistemas avaliados para a manutenção do organismo.
Resumo:
Os erros inatos do metabolismo (EIM) constituem um grupo de doenças genéticas causadas pela deficiência ou ausência de uma proteína, geralmente uma enzima. A hiperargininemia é um erro inato do ciclo da uréia causado pela deficiência de arginase, enzima que converte a arginina em ornitina e uréia. O bloqueio desta reação resulta no acúmulo tecidual e plasmático de arginina e seus metabólitos, os compostos guanidínicos. As manifestações clínicas desta doença diferem substancialmente das demais doenças metabólicas do ciclo da uréia. Seus principais sintomas, que manifestam-se progressivamente, são caracterizados por espasticidade, epilepsia e retardo mental. A correlação entre o metabolismo da arginina e do óxido nítrico ocorre no chamado ciclo arginina-citrulina. A arginina é o substrato para a síntese de óxido nítrico pela ação da enzima óxido nítrico sintetase (ONS). Como os pacientes hiperargininêmicos apresentam altos níveis de arginina no plasma e tecidos, é provável que, devido ao excesso deste substrato, ocorra um aumento na síntese de óxido nítrico. O óxido nítrico em concentrações elevadas está associado à produção de radicais livres, neurotoxicidade e inibição da enzima Na+,K+-ATPase. A Na+,K+-ATPase é uma enzima fundamental ao funcionamento normal do sistema nervoso central (SNC), pois regula a transmissão do impulso nervoso, o volume celular e o transporte de moléculas ligadas ao cotransporte de Na+, tais como aminoácidos, glicose e neurotransmissores. A inibição da atividade da Na+,K+-ATPase nos sítios pré-sinápticos resulta na inibição da recaptação de glutamato, bem como na estimulação de sua liberação. A inibição desta enzima também tem sido associada a diversas neuropatologias. A Na+,K+-ATPase também está envolvida na LTP (long term potentiation – potenciação de longa duração), que é um tipo de neuroplasticidade celular que provoca alterações nas cascatas bioquímicas no SNC, que são, muitas vezes, idênticas àquelas que ocorrem durante o processo de formação da memória. Assim, acredita-se que a LTP seja um dos diversos mecanismos bioquímicos importantes para a formação da memória. Neste estudo investigamos o efeito in vivo da administração aguda de arginina, L-NAME (um potente inibidor da ONS) e a co-administração de Arg + L-NAME sobre a atividade da Na+,K+-ATPase de membrana plasmática sináptica de hipocampo de ratos adultos e sobre testes 6 comportamentais utilizados para avaliar o aprendizado e memória: campo aberto e esquiva inibitória. Os resultados obtidos demonstraram que a arginina inibiu significativamente a atividade da enzima Na+,K+-ATPase de membrana plasmática sináptica de hipocampo de ratos. A administração de L-NAME não alterou a atividade da enzima, mas preveniu a diminuição da atividade da Na+,K+-ATPase causada pela arginina. Nos experimentos de comportamento foram avaliados o aprendizado, a consolidação e a evocação da memória de longa duração pela administração das soluções em três momentos diferentes. A arginina diminuiu o desempenho do teste de esquiva inibitória nos três momentos, o L-NAME isoladamente não alterou o comportamento dos animais, mas quando co-administrado com a arginina aumentou a capacidade de memorização desta tarefa. Estes resultados indicam que a administração de arginina in vivo reduz tanto a atividade da Na+,K+-ATPase como a modulação da memória em ratos, e que isso ocorreu, provavelmente, pelo aumento da síntese de óxido nítrico. Assumindo a possibilidade de que isso possa ocorrer em pacientes com hiperargininemia, os resultados obtidos podem ser relevantes para explicar, pelo menos em parte, a disfunção neurológica associada a essa doença.
Resumo:
O controle gerencial das empresas, viabilizado a partir de informações oriundas, na maior parte, da contabilidade gerencial, necessita refletir sobre o novo ambiente desafiador que empresas do mundo inteiro estão enfrentando. Informações precisas, oportunas e pertinentes sobre o desempenho da empresa e seu ambiente concorrencial são cruciais ao sucesso empresarial. Este trabalho tem como objetivo aplicar um sistema de mensuração de desempenho empresarial capaz de apoiar o controle gerencial da empresa inserida em um ambiente globalmente competitivo e desafiador. Nesse sentido, foram examinados o papel exercido pela contabilidade (financeira, de custos e gerencial) nas empresas, e as principais críticas ao controle gerencial tradicional utilizado pelas organizações, bem como foram estudados o sistema empresa, o ambiente concorrencial contemporâneo e os sistemas de mensuração de desempenho empresarial desenvolvidos por organizações e estudiosos do assunto. A proposta oferecida tem como base o Balanced Scorecard, desenvolvido por Robert Kaplan e David Norton, constituindo-se em um sistema de mensuração de desempenho que utiliza indicadores financeiros e nãofinanceiros vinculados aos objetivos estratégicos da empresa, estruturados em quatro perspectivas de avaliação: financeira, do cliente, dos processos internos e do aprendizado e crescimento. No desenvolvimento da proposta, foram identificadas as principais características e necessidades da empresa que conduziram ao estabelecimento e confirmação de sua missão e visão de futuro. Em seguida, foram estabelecidas as perspectivas onde a empresa deve ter sucesso para alcançar um desempenho que a conduza à satisfação de sua missão e visão. Nas etapas seguintes, foram definidos, para cada perspectiva, os objetivos estratégicos, fatores críticos de sucesso, indicadores de desempenho e as metas, de curto e longo prazos, consideradas imprescindíveis para a empresa monitorar, continuamente, seu curso. O projeto indica que o Balanced Scorecard, além de ser um sistema de mensuração de desempenho que permite monitorar os aspectos que conduzirão a empresa ao sucesso, também serve para estabelecer, confirmar, comunicar e implantar a estratégia empresarial.
Resumo:
O presente trabalho tem por objetivo desenvolver e implantar um sistema gerencial voltado à manutenção. Atualmente, é inadmissível imaginar que seja possível gerenciar um setor sem haver criado um sistema que gere informações e meios de se atingir metas – pré-definidas. Para fundamentar o projeto, foi realizada uma revisão bibliográfica nas ferramentas gerenciais, nos sistemas de gestão da manutenção e na relação entre a estratégia produtiva e a estratégia de atuação da manutenção. Primeiramente, será apresentada uma proposta do sistema gerencial da manutenção, demonstrando sua lógica de estruturação. A idéia consiste em criá-lo levando-se em consideração alguns aspectos básicos que agem como pilares, dando suporte ao modelo gerencial. Os denominados pilares do Sistema de Implantação e Gestão da Manutenção são os 5S’s, o fluxo organizado de informações, a manutenção planejada, a padronização, os colaboradores capacitados e motivados, a determinação de indicadores e metas e o aplicativo. A partir dos pilares foi desenvolvida a Estrutura o Sistema Gerencial em forma de diagrama de árvore, contendo todas as tarefas necessárias a sua implantação. Posteriormente, apresentar-se-á a aplicação prática do sistema através de um estudo de caso em um hospital. Este estudo de caso contém a descrição minuciosa do realizado em cada tarefa, esclarecendo e ampliando a compreensão do leitor diante do sistema gerencial.
Resumo:
Este trabalho investiga o impacto da adoção e da implementação de um Sistema Integrado de Gestão em uma empresa do setor elétrico brasileiro, Companhia Estadual de Energia Elétrica – CEEE. Os Sistemas Integrados de Gestão – SIG´s – compõem um novo conceito para a gestão de informação nas organizações. Esses sistemas prometem a integração de todos os fluxos de informações internos e externos a uma organização. A busca da efetiva integração dos negócios levou inúmeras empresas a implementarem os SIG´s. Como a expectativa de resultados é significativa e os investimentos envolvidos são elevados, a avaliação é uma importante etapa da implementação deste tipo de sistema nas empresas. O objetivo do trabalho é avaliar se a implementação do sistema empresarial Synergia trouxe alteração na eficiência operacional da CEEE. O método de avaliação baseou-se em duas dimensões: utilidade e satisfação pelo usuário. Para avaliação da utilidade do sistema, outras três subdimensões foram estabelecidas: a) impacto nos fatores críticos de sucesso da empresa; b) impacto nos processos; c) impacto nos indicadores de desempenho. Com base em um referencial teórico centrado nas características destes sistemas e nos métodos de avaliação que enfatizam as questões mais significativas a serem consideradas na implementação desses projetos, a pesquisa revelou aspectos da implementação e deficiências do software que conduziram ao insucesso do projeto.
Resumo:
O objetivo do presente trabalho é realizar a concepção de um sistema para a aprendizagem de demonstrações da Geometria Euclidiana Plana e a implementação de um protótipo deste sistema, denominado LEEG - Learning Environment on Euclidean Geometry, desenvolvido para validar as idéias utilizadas em sua especificação. Nos últimos anos, tem-se observado uma crescente evolução dos sistemas de ensino e aprendizagem informatizados. A preocupação com o desenvolvimento de ambientes cada vez mais eficientes, tanto do ponto de vista computacional quanto pedagógico, tem repercutido em um salto de qualidade dos software educacionais. Tais sistemas visam promover, auxiliar e motivar a aprendizagem das mais diversas áreas do conhecimento, utilizando técnicas de Inteligência Artificial para se aproximarem ao máximo do comportamento de um tutor humano que se adapte e atenda às necessidades de cada aluno. A Geometria pode ser vista sob dois aspectos principais: considerada como uma ciência que estuda as representações do plano e do espaço e considerada como uma estrutura lógica, onde a estrutura matemática é representada e tratada no mais alto nível de rigor e formalismo. Entretanto, o ensino da Geometria, nos últimos anos, abandonou quase que totalmente sua abordagem dedutiva. Demonstrações de teoremas geométricos não são mais trabalhadas na maioria das escolas brasileiras, o que repercute em um ensino falho da Matemática, que não valoriza o desenvolvimento de habilidades e competências relacionadas à experimentação, observação e percepção, realização de conjecturas, desenvolvimento de argumentações convincentes, entre outras. Levando-se em conta este cenário, desenvolveu-se o LEEG, um sistema para a aprendizagem de demonstrações geométricas que tem como objetivo auxiliar um aprendiz humano na construção de demonstrações da Geometria Euclidiana Plana. O sistema foi modelado sobre uma adaptação do protocolo de aprendizagem MOSCA, desenvolvido para suportar ambientes de ensino informatizados, cuja aprendizagem é baseada na utilização de exemplos e contra-exemplos. Este protocolo propõe um ambiente de aprendizagem composto por cinco agentes, dentre os quais um deles é o aprendiz e os demais assumem papéis distintos e específicos que completam um quadro de ensino-aprendizagem consistente. A base de conhecimento do sistema, que guarda a estrutura lógica-dedutiva de todas as demonstrações que podem ser submetidas ao Aprendiz, foi implementada através do modelo de autômatos finitos com saída. A utilização de autômatos com saída na aplicação de modelagem de demonstrações dedutivas foi extremamente útil por permitir estruturar os diferentes raciocínios que levam da hipótese à tese da proposição de forma lógica, organizada e direta. As demonstrações oferecidas pelo sistema são as mesmas desenvolvidas por Euclides e referem-se aos Fundamentos da Geometria Plana. São demonstrações que priorizam e valorizam a utilização de objetos geométricos no seu desenvolvimento, fugindo das demonstrações que apelam para a simples manipulação algébrica e que não oferecem uma construção significativa do ponto de vista da Geometria. Porém, mesmo sendo consideradas apenas as demonstrações contidas em Elements, todos os diferentes raciocínios para uma mesma demonstração são aceitos pelo sistema, dando liberdade ao aprendiz no processo de construção da demonstração.
Resumo:
Na área de Engenharia de Software, há vários modelos formais de especificação orientado a objetos (OO). Um destes é o OO-Method / OASIS. OO-Method se baseia nos seguintes princípios: - dar suporte às noções do modelo conceitual orientado a objetos; - integrar os modelos formais com metodologias de aceitação industrial; - possibilitar a produção de software avançado que inclua a geração completa de código (estática e dinâmica) do desenvolvimento comercial. O processo de desenvolvimento consiste em levantar as propriedades principais do sistema em desenvolvimento (modelo conceitual) por parte do engenheiro de software, e construir de forma automática, em qualquer momento (por um processo de conversão gráfico-textual) a especificação formal orientada a objetos em OASIS (Open and Active Specifications of Information System) que constituirá um repositório de alto nível do sistema. O objetivo de OASIS é expressar os requisitos funcionais de um sistema de informação, em um marco formal, que facilite sua validação e geração automática de programas. OASIS não inclui a especificação de aspectos temporais. A modelagem de aspectos temporais é um importante tópico da modelagem de sistemas de informação, porque através destes são representadas as características dinâmicas das aplicações e a interação temporal entre diferentes processos. A especificação de requisitos de aplicações através de modelos orientados a objetos permite representar não só os seus estados, mas também, seu comportamento. Modelos temporais representam também a evolução de objetos com o tempo. Como o estado de um objeto pode ser alterado devido à ocorrência de um evento (fato ocorrido em um determinado instante no tempo), é importante que o modelo utilizado permita apresentar a história destes eventos. O presente trabalho tem por finalidade propor uma extensão temporal a um modelo formal de especificação OO. Esta extensão inclui tanto aspectos estáticos quanto dinâmicos. A extensão de aspectos estáticos estende OASIS com atributos temporais. A extensão dos aspectos dinâmicos, contribuição central do trabalho, estende OASIS com eventos temporais.
Resumo:
O gerenciamento de recursos hídricos visa solucionar conflitos resultantes do uso intensivo da água, resultado do crescimento econômico e populacional, bem como assegurar que a água, recurso natural, finito e insubstituível à vida, se mantenha com oferta adequada e preserve as funções hidrológicas, biológicas e químicas dos ecossistemas. Um dos instrumentos de suporte para esta atividade é a “outorga de uso”, licença emitida pelo Estado, para que o usuário possa derivar determinados volumes de água para atender suas necessidades. Para a instrução de um processo de outorga, é necessário o cotejo de duas grandezas fundamentais: a disponibilidade hídrica (oferta) e a demanda. A demanda pode ser estimada a partir do cadastramento de usuários, dinâmico e contínuo no tempo. A disponibilidade hídrica varia no tempo e no espaço e é estimada a partir da avaliação do regime hidrológico da bacia. Esta é a informação básica de apoio à decisão e possui diversas interpretações, função de particularidades jurídicas, sociais, ambientais e econômicas de cada região. Sendo assim, o objetivo da presente tese se insere na fase inicial de instrução do processo de outorga (planejamento) e a contribuição se concentra na avaliação de aspectos técnicos e conceituais que embasam duas etapas relativas à (i) avaliação de disponibilidades hídricas para outorga, definidas por curvas de permanência de vazões e considerando os aspectos de variabilidade, sazonalidade, aleatoriedade e erros de estimativas; (ii) gerenciamento da outorga, considerando o equacionamento do problema de outorga para atendimento da demanda, bem como a avaliação da influência de diferentes aspectos no atendimento da demanda e na conservação ambiental, através do balanço hídrico do sistema. Para o desenvolvimento da pesquisa foram utilizados dados fluviométricos existentes das bacias dos rios Vacacaí, Vacacaí-Mirim, Pardo, Pardinho e Baixo Jacuí, pertencentes à bacia do rio Guaíba, no Rio Grande do Sul. Os estudos com simulação de outorga foram aplicados às seções de referência definidas em estudo anterior na bacia do Baixo Jacuí. Foram estudados dois critérios para obtenção da curva de permanência de vazões. O primeiro aceita a hipótese de que a curva representa o risco ou probabilidade no período da amostra. Neste critério, tradicionalmente utilizado em hidrologia, a freqüência de excedência é calculada pelo processamento conjunto de toda série histórica de vazões. O segundo critério aceita a hipótese de que cada ano é um evento hidrológico independente e prevê o cálculo de uma curva de permanência de vazões para cada ano. Neste critério, a disponibilidade hídrica é caracterizada pela média das curvas e respectivo intervalo de confiança, o qual representa a variabilidade interanual das vazões. Para consideração da sazonalidade, foi adotado o critério de cálculo das curvas de permanência obtidas para cada mês do ano. Para o cotejo entre a disponibilidade hídrica (vazão de referência) e a demanda, foi utilizado um modelo de balanço hídrico otimizado, considerando todo sistema e vazões de referência como disponibilidade, desenvolvido em planilha eletrônica. A aplicação do modelo, considerando a variabilidade e sazonalidade da disponibilidade hídrica e diferentes critérios de outorga, permitiu avaliar oito diferentes aspectos do problema de outorga e concluir pela adequabilidade da técnica para seu planejamento, bem como análise de cenários futuros e cenários de racionamento. A grande diferença entre os valores outorgados com as disponibilidades estimadas pelos critérios da série toda e do ano a ano, indica que ambos devem ser considerados no planejamento da outorga, embora não sejam concorrentes entre si e a escolha entre eles reflita o risco a ser selecionado pelos planejadores para a outorga. Posteriormente, foi realizada uma análise do desempenho do modelo de proporção de áreas e de uma versão modificada deste, para transferência de informações fluviométricas de uma seção com dados para outra sem, a partir de uma pequena amostragem no local. Os resultados mostraram que o modelo modificado é uma técnica potencialmente mais adequada, para a síntese de informações em locais com poucos dados, do que a simples proporção de áreas e de técnicas de regionalização. Isso porque consegue sintetizar a influência de particularidades relativas a fatores antropogênicos, geomorfológicos e pedológicos. Foram realizadas, também, simulações de verificação das conseqüências ambientais das outorgas planejadas com o modelo otimizado, que mostraram que o critério de outorga, baseado em vazões de referência, é pouco agressivo ao ambiente. Isso devido à fraca influência na alteração do padrão de pulsos hidrológicos dos rios, devendo-se, porém, tomar cuidado quando do seu uso em sistemas sujeitos a obras de regularização.
Resumo:
Este trabalho analisa o sistema de avaliação do programa de qualidade de uma organização pública, mais especificamente a do Programa de Qualidade da Brigada Militar (PQBM), na visão dos seus próprios avaliadores, tendo a finalidade primordial de contribuir para o aperfeiçoamento do sistema avaliativo. O estudo baseia-se na teoria geral da administração, com ênfase na teoria clássica, na burocrática e na do desenvolvimento organizacional, aplicado às condições e contexto da organização Brigada Militar. Da totalidade dos 83 (oitenta e três) oficiais avaliadores participantes do processo avaliativo do PQBM, 72 (setenta e dois) responderam a um instrumento de levantamento de dados quantitativos, utilizando uma escala tipo Likert, com respostas intervalares de 0 a 4 (de discordo totalmente a concordo totalmente), e dados qualitativos, através de questões abertas. As questões abrangem variáveis de processo (aspectos organizacionais, relativos a método/conteúdo e relativos a recursos), assim como variáveis de resultado (aspectos relativos à estrutura, à atividade humana, à organização e ao meio-ambiente). Os resultados obtidos delineiam a percepção dos avaliadores quanto a mudanças e suas expectativas relativas ao processo avaliativo do PQBM e a capacidade da organização de absorver um novo modelo de gestão sistêmica. Demonstram, ainda, a distância entre o preconizado, quanto ao comportamento administrativo, e a realidade organizacional. Por fim, apresenta-se, através das análises das variáveis causais e das sugestões dos avaliadores, diversas ações para o desenvolvimento de uma gestão sistêmica da qualidade, e sugerem-se estudos mais aprofundados desses aspectos relativos a avaliação.
Resumo:
Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.
Resumo:
Esta dissertação propõe um método de trabalho para a implantação de um sistema de Planejamento Fino da Produção baseado na Teoria das Restrições. É apresentada uma revisão bibliográfica sobre Planejamento e Controle da Produção, destacando a abordagem da Teoria das Restrições. É realizado um estudo sobre ferramentas computacionais de Planejamento Fino da Produção e suas particularidades. A seguir é desenvolvido o método de trabalho, que foi seguido de sua aplicação prática em uma empresa industrial do ramo metal-mecânico. O estudo apresenta as modificações no sistema de Planejamento e Controle da Produção da empresa, que foi adequado as práticas e princípios da Manufatura Sincronizada. As melhorias decorrentes da implantação podem ser constatadas através dos resultados divulgados. Este trabalho explora as particularidades e dificuldades da implementação desta ferramenta de apoio à tomada de decisão, e discute aspectos referentes às mudanças na “filosofia” de produção impostas pela sincronização da manufatura.
Resumo:
Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.
Resumo:
O presente trabalho objetiva identificar a influência das privatizações na evolução do sistema de telefonia fixa e móvel celular brasileiro. O estudo foi desenvolvido avaliando-se um período de três anos pré-privatização versus pós-privatização, desconsiderando-se o ano em que ocorreu a troca do controle acionário das companhias. Para a execução do estudo, utilizou-se duas amostras distintas, uma para cada período, que representavam parcelas semelhantes da receita total do mercado para os respectivos períodos antes e pós-privatização. De modo a atingir o objetivo central do trabalho, desenvolveu-se o tema em quatro aspectos: desempenho das empresas de telefonia, qualidade e universalização dos serviços de telefonia, geração de divisas para o governo pelas empresas de telefonia e variação nos preços dos serviços de telefonia fixa. Para operacionalizar a análise, utilizou-se um conjunto de indicadores para cada um dos aspectos abordados e aplicou-se, primeiramente, o teste não-paramétrico de Kolmogorov- Smirnov. Em seguida, constatou-se que a forma de distribuição dos dados, antes desconhecida, atendia aos pressupostos dos testes paramétricos e aplicou-se, também, aos conjuntos de indicadores o teste t de Student de modo a perceber diferenças mais sutis principalmente nos casos em que o primeiro teste não detectou diferenças significativas. A avaliação geral dos resultados tende a rejeitar a hipótese nula de que a privatização das empresas de telefonia não reverteu em ganhos para o Estado e a população em geral. Esta conclusão baseia-se na análise dos quatro conjuntos de indicadores que apresentaram as seguintes evidências: em geral, a maioria dos indicadores de desempenho das empresas sinalizam uma queda em sua performance entre antes e depois das privatizações; a análise dos indicadores de qualidade e universalização dos serviços apresentaram sensível melhora, evidenciando uma evolução em termos de qualidade e de popularização dos serviços de telefonia; os indicadores de geração de divisas para o Estado apresentaram um crescimento no montante absoluto arrecadado, mas sem um aumento significativo na proporção da carga tributária incidente; a análise da evolução dos preços dos serviços de telefonia fixa revela que, considerando-se os efeitos inflacionários, houve uma redução destes preços no período pós-privatização comparando-se com o período pré-privatização.
Resumo:
Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.