933 resultados para abordagem neo-kohlberguiana baseada no DIT
Resumo:
Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.
Resumo:
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
Resumo:
Este trabalho apresenta uma sistemática para realizar a otimização numérica de pré-formas e de matrizes em problemas de forjamento axissimétricos e em estado plano de deformações. Para este fim, desenvolveu-se um código computacional composto basicamente de três módulos: módulo de pré-processamento, módulo de análise e módulo de otimização. Cada um destes foi elaborado acrescentando rotinas em programas comerciais ou acadêmicos disponíveis no GMAp e no CEMACOM. Um programa gerenciador foi desenvolvido para controlar os módulos citados no processo de otimização. A abordagem proposta apresenta uma nova função objetivo a minimizar, a qual está baseada em uma operação booleana XOR (exclusive or) sobre os dois polígonos planos que representam a geometria desejada para o componente e a obtida na simulação, respectivamente. Esta abordagem visa eliminar possíveis problemas geométricos associados com as funções objetivo comumente utilizadas em pesquisas correlatas. O trabalho emprega análise de sensibilidade numérica, via método das diferenças finitas. As dificuldades associadas a esta técnica são estudadas e dois pontos são identificados como limitadores da abordagem para problemas de conformação mecânica (grandes deformações elastoplásticas com contato friccional): baixa eficiência e contaminação dos gradientes na presença de remalhamentos. Um novo procedimento de diferenças finitas é desenvolvido, o qual elimina as dificuldades citadas, possibilitando a sua aplicação em problemas quaisquer, com características competitivas com as da abordagem analítica Malhas não estruturadas são tratadas mediante suavizações Laplacianas, mantendo as suas topologias. No caso de otimização de pré-formas, o contorno do componente a otimizar é parametrizado por B-Splines cujos pontos de controle são adotados como variáveis de projeto. Por outro lado, no caso de otimização de matrizes, a parametrização é realizada em termos de segmentos de reta e arcos de circunferências. As variáveis de projeto adotadas são, então, as coordenadas das extremidades das retas, os raios e centros dos arcos, etc. A sistemática é fechada pela aplicação dos algoritmos de programação matemática de Krister Svanberg (Método das Assíntotas Móveis Globalmente Convergente) e de Klaus Schittkowski (Programação Quadrática Sequencial – NLPQLP). Resultados numéricos são apresentados mostrando a evolução das implementações adotadas e o ganho de eficiência obtido.
Resumo:
O trabalho tem por objetivo estudar as motivações pelas quais as empresas recompram suas ações em mercado. Para o caso brasileiro será feito um teste para verificar se existe ou não uma divisão dos ganhos de eficiência obtidos com estas operações com os acionistas minoritários.
Resumo:
Este trabalho tem como objetivo verificar o grau de concorrência existente no mercado de crédito bancário brasileiro. A abordagem utilizada neste trabalho foi apresentada por Baker e Bresnahan (1985 e 1988) e trata da estimação da elasticidade de demanda residual, que fornece uma medida do poder de mercado da firma. Esta técnica é bastante conveniente para estimação de poder de mercado para indústrias com produtos diferenciados, como o setor bancário, onde elasticidades cruzadas são particularmente difíceis de serem mensuradas. Estimamos as curvas de demanda residual para os bancos do Brasil, Bradesco, Itaú, ABN Amro Real, Safra e Unibanco. Grande parcela dos dados foi extraída da contabilidade padrão Cosif, divulgada pelo Bacen. A partir dos resultados obtidos, observamos evidências de que o banco Safra atua competitivamente enquanto os dados dos demais bancos analisados apontam para a existência de algum poder no mercado de crédito bancário.
Resumo:
Esta dissertação procura compreender como a performance ritual contribui na elaboração e sustentação do ethos carismático em duas distintas instituições religiosas: a Igreja Evangélica de Confissão Luterana no Brasil e a Igreja Católica Apostólica Romana. Para isso, procuro verificar que recursos de performance são acionados no ritual de cada um destes grupos carismáticos. Centro a análise na compreensão de como os artificios da performance agem sobre os participantes do ritual. A fim de alcançar este entendimento, são usados os pressupostos de teorias sobre ritual e performance. Além de estudar o fenômeno supracitado nas duas igrejas separadamente, esta dissertação propõe uma análise comparativa entre as mesmas. O trabalho foi construído com base na pesquisa etnográfica realizada junto a comunidades carismáticas das instituições religiosas em referência, situadas em algumas cidades da Região Metropolitana de Porto Alegre.
Resumo:
CORBA vem se tornando o middleware padrão no desenvolvimento de aplicações distribuídas, tornando-as independentes de plataforma e linguagem. Ele tem sido utilizado também em aplicações de tempo real através de sua extensão para tempo real, o RT-CORBA. Apesar desta extensão ter conseguido reduzir vários dos problemas do CORBA no que se refere ao não-determinismo e falta de garantias temporais, ainda há muito estudo na área de mecanismos de escalonamento utilizados. Assim, este trabalho tem por objetivo apresentar uma proposta de escalonamento adaptativo no ambiente Real-Time CORBA. Nesta proposta o período das tarefas é controlado, variando dentro de uma faixa pré-estabelecida com o propósito de reduzir o atraso médio das tarefas da aplicação.
Resumo:
Este trabalho situa-se na área de Sistemas Multiagente, que é uma sub-área da Inteligência Artificial Distribuída. Em particular, o problema abordado nesta dissertação é o da modelagem de ambientes, um aspecto importante na criação de simulações baseadas em sociedades de agentes cognitivos, no entanto pouco tratado na literatura da área. A principal contribuição deste trabalho é a concepção de uma linguagem, chamada ELMS, própria para a definição de ambientes multiagente, e a implementação de um protótipo de interpretador para esta linguagem. O resultado da interpretação é um processo que simula o ambiente descrito em alto nível, e é apropriado para a interação com os agentes cognitivos que irão compartilhar o ambiente. Esta linguagem foi desenvolvida no contexto do projeto MASSOC, que tem como objetivo a criação de simulações sociais com agentes cognitivos. A abordagem deste projeto dá ênfase ao uso da arquitetura BDI para agentes cognitivos, a comunicação inter-agente de alto nível (ou seja, baseada em atos de fala) e a modelagem de ambientes com a linguagem ELMS, que é proposta neste trabalho. Os ambientes e agentes que podem ser usados na criação de simulaçõpes, bem como a comunicação entre eles utilizando a ferramenta SACI, são definidos ou gerenciados a partir de uma interface gráfica, que facilita a criação e controle de simulações com a plataforma MASSOC. Além de apresentar a linguagem ELMS e seu interpretador, esta dissertação menciona ainda, como breve estudo de caso, uma simulação de aspectos sociais do crescimento urbano. Esta simulação social auxiliou na concepção e avaliação da linguagem ELMS.
Resumo:
Este trabalho apresenta e discute uma estratégia e discute uma estratégia inédita para o problema de exploração e mapeamento de ambientes desconhecidos usandoo robô NOMAD 200. Esta estratégia tem como base a solução numéricqa de problemas de valores de contorno (PVC) e corresponde ao núcleo da arquitetura de controle do robô. Esta arquitetura é similar à arquitetura blackboard, comumente conhecida no campo da Inteligência Artificial, e é responsável pelo controle e gerenciamento das tarefas realizadas pelo robô através de um programa cleinte. Estas tarefas podem ser a exploração e o mapeamento de um ambiente desconhecido, o planejamento de caminhos baseado em um mapa previamente conhecido ou localização de um objeto no ambiente. Uma características marcante e importante é que embora estas tarefas pareçam diferentes, elas têm em comum o mesmo princípio: solução de problemas de valores de contorno. Para dar sustentabilidade a nossa proposta, a validamos através de inúmeros experimentos, realizados e simulação e diretamente no robô NOMAD 200, em diversos tipos de ambientes internos. Os ambientes testados variam desde labirintos formados por paredes ortogonais entre si até ambientes esparsos. Juntamente com isso, introduzimos ao longo do desenvolvimento desta tese uma série de melhorias que lidam com aspectos relacionados ao tempo de processamento do campo potencial oriundo do PVC e os ruídos inseridos na leitura dos sensores. Além disso, apresentamos um conjunto de idéias para trabalhos futuros.
Resumo:
A presente dissertação resulta do trabalho de pesquisa realizado no âmbito da administração pública do Estado do Rio Grande do Sul, cujo foco foi centrado no processo de evolução e administração da dívida pública estadual. Durante décadas, a maior parte dos investimentos realizados no Estado tem sido financiada com recursos de terceiros, num processo de endividamento crescente, que finalmente acabou por esgotar-se, encontrando seu limite na incapacidade do Estado de, com suas próprias receitas, fazer frente aos compromissos assumidos anteriormente e, ao mesmo tempo, realizar os investimentos necessários à continuidade do desenvolvimento social e econômico. Contudo, antes de ingressar no assunto, que constitui o último capítulo da dissertação, faz-se necessário contextualizar a questão da dívida pública dentro de um referencial teórico, de uma evolução histórica e do arcabouço legal. Assim, no primeiro capítulo realiza-se uma abordagem teórica a respeito do crédito público, apresentando as diversas teorias e definições sobre o assunto. No segundo capítulo desenvolve-se um relato histórico, onde se busca demonstrar que a questão é objeto de controvérsias desde a Antigüidade, tendo sido tema de importantes debates por parte de financistas, governantes, economistas e historiadores. No terceiro capítulo apresenta-se a evolução da legislação sobre o tema, dando ênfase às definições legais atuais que estabelecem a nomenclatura específica sobre assunto. Ao final, faz-se uma análise a respeito da evolução da dívida pública do Estado do Rio Grande do Sul, onde se questiona a atuação do administrador público estadual, ao permitir que, com o decorrer do tempo e com a expansão geométrica dessa dívida , passasse ele, da condição de condutor desse processo, inerente ao cargo de Governador do Estado, à condição de conduzido por esse mesmo processo, numa total dependência da política econômica do Governo Federal.
Resumo:
A economia do Rio Grande do Sul, o estado mais meridional do Brasil, enfrenta o problema da concentração econômica e industrial em suas três principais regiões: Metropolitano-Delta do Jacuí, Vale do Rio dos Sinos e Serra. Essa situação possui raízes históricas e vem desafiando os governos em seus esforços, baseados, principalmente, em incentivos financeiros, para promover o crescimento econômico e o desenvolvimento em outras regiões do Estado do Rio Grande do Sul, mediante investimentos industriais privados. O objetivo deste estudo é analisar a concentração regional da economia do Rio Grande do Sul, estabelecendo um cenário teórico e histórico a fim de proceder a uma avaliação dos impactos e efeitos sobre esta situação resultante da operação de um programa público de incentivos financeiros, que visa promover investimentos industriais privados na economia estadual, o Fundopem. A abordagem histórica do problema mostra que os primórdios da formação econômica do Rio Grande do Sul e seu desenvolvimento durante os séculos XIX e XX contribuíram para criar uma economia regionalmente desequilibrada. Por sua vez, a abordagem teórica, baseada na Economia Regional e, mais especialmente, na Teoria do Desenvolvimento Regional, contribui para a compreensão do papel atribuído ao estado, bem como das características gerais de suas macropolíticas, voltadas para melhorar a convergência econômica e social na desequilibrada distribuição de emprego e renda entre as regiões do Rio Grande do Sul Por fim, a análise e a avaliação ex-ante de projetos e ex-post de investimentos industriais incentivados pelo Fundopem como um programa público para a promoção do desenvolvimento regional trazem a este estudo uma visão quantitativa sobre os seus resultados macro e mesoeconômicos sobre o desenvolvimento do Rio Grande do Sul. A conclusão final do estudo mostra que, ao contrário de promover a desconcentração industrial, os projetos apoiados pelo Fundopem, no período 1989/98, tomaram a direção de reforço da concentração industrial existente nas três principais regiões do Rio Grande do Sul, enquanto que a distribuição regional da indústria e da economia estadual, no mesmo período, experimentou um processo de desconcentração, que ocorreu apesar do Fundopem.
Resumo:
presente estudo analisa problema da definição de mercado relevante, sob ótica da política de defesa da concorrência. Seguindo taxonomia de Scheffman Spiller (1987), que classifica os mercados em econômicos antitrustes, são examinados diversos procedimentos, objetivando sintetizar as características fundamentais de uma definição adequada aos propósitos da defesa da concorrência as características serem evitadas. critério básico de avaliação de cada definição sua consistência com objetivo maior da análise antitruste a avaliação do poder de mercado. Segundo esse critério, abordagem integrada proposta nas Diretrizes do Departamento de Justiça americano apresenta-se como mais pertinente, embora ainda sujeita aperfeiçoamentos.
Resumo:
O objetivo deste trabalho é modelar o comportamento estratégico dos indivíduos diante de um choque estocástico que desloca o preço de determinado ativo financeiro do seu equilíbrio inicial. Investiga-se o caminho do preço de mercado em direção ao novo equilíbrio, conduzido pelas sucessivas negociações dos agentes em busca de oportunidades de obter lucros imediatos. Os operadores, que por suposição possuem funções de utilidade avessas ao risco, devem escolher a quantidade ótima transacionada e quanto devem aguardar para executar as suas ordens, tendo em vista a diminuição da volatilidade do preço do ativo à medida que as transações se sucedem após o choque. Procura-se demonstrar que os operadores que aceitam incorrer em riscos mais elevados negociam com maior frequência e em volumes e velocidades maiores, usufruindo lucros esperados mais altos que os demais.