11 resultados para Método multicritério de análise de decisão

em Biblioteca de Teses e Dissertações da USP


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho trata da logística envolvida em operações de resposta a desastres, com foco na entrega final de suprimentos destinados a ajudar vítimas. Seu propósito é investigar os objetivos pertinentes ao planejamento do transporte da carga e encontrar uma metodologia para definir estratégia que sirva à tomada de decisão em campo. Para tanto, primeiramente identifica-se os objetivos adotados em modelos de Pesquisa Operacional para a tarefa em questão, através da análise de conteúdo das publicações pertinentes. Então, a abordagem do Pensamento Focado em Valores é utilizada para estruturar o problema. Finalmente, o método Simple Multi-Attribute Rating Technique Exploiting Ranks (SMARTER) é empregado na construção de um modelo de Análise da Decisão Multicritério (ADM), com consulta a um profissional experiente da área humanitária e aproveitando a análise da literatura previamente realizada. Neste processo, são elaboradas e avaliadas seis alternativas para a tomada de decisão condizentes com os valores da comunidade humanitária. Os resultados obtidos mostram que existe incompatibilidade entre os critérios de desempenho identificados nas publicações existentes e os objetivos perseguidos pelo Tomador da Decisão (TD) real. De acordo com o modelo construído, o atendimento de prioridades e a manutenção da sustentabilidade da operação são os objetivos que devem ser levados em conta para planejar a entrega de carga em pós-desastre, sendo que o custo e a equidade da distribuição não devem ser considerados. Conclui-se que o método adotado é útil à definição destes critérios e também ao desenvolvimento de estratégias que resultem em distribuições de ajuda melhores, aos olhos do próprio TD. Desta forma, ressalta-se que este trabalho contribui à área da Logística Humanitária com a investigação dos objetivos, assim como ao campo da ADM pela formalização dos processos de elaboração de alternativas, além da adição de mais uma aplicação possível ao repertório do método SMARTER.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em um cenário de aumento de competitividade, crescente expectativa por inovações do produto e necessidade de atender diferentes perfis de consumidores, o conceito de gerenciamento de cadeias de suprimentos globais (GSCM) surge como uma estratégia para coordenar mais eficazmente as atividades dispersas geograficamente dos sistemas produtivos. Na adoção do GSCM, as organizações devem lidar com rupturas que impactam no gerenciamento das suas atividades, tais como a interrupção de vias de transporte, pane no fornecimento de energia, desastres naturais e até ataques terroristas. Nesse contexto, o trabalho introduz um procedimento sistematizado para modelagem das cadeias de suprimentos visto como um sistema a eventos discretos e sua análise por simulação das atividades do GSCM baseada em técnicas formais como a rede de Petri (PN) e o Production Flow Schema (PFS). Um exemplo é também apresentado para ilustrar e comprovar as vantagens do método proposto na análise do GSCM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uma ocorrência ferroviária tem danos imprevisíveis, desde um simples atraso do horário do trem enquanto o socorro ferroviário encarrilha o vagão, até prejuízos milionários com grande perda de ativos (material rodante e via permanente) e, em casos extremos, até vidas humanas. Portanto, as ferrovias nacionais sempre buscam maneiras de programar ações que minimizam este risco. Uma das principais ações é estabelecer critérios de manutenção sempre justos. Entretanto, estes critérios geralmente não contemplam de maneira conjunta a dinâmica veicular e a geometria da via permanente. Neste sentido, este trabalho elabora um modelo matemático de um vagão ferroviário de alta capacidade em conjunto com a flexibilidade do suporte da via permanente. O modelo matemático foi validado e considerado satisfatório, a partir da comparação das frequências naturais obtidas no vagão real e na comparação de seu resultado produzido a partir de uma entrada medida com equipamentos de controle de geometria de linha e de medições dinâmicas realizadas por vagão instrumentado. Um método estratégico para análise da segurança do veículo foi sugerida e utilizada mostrando-se capaz de determinar os comprimentos de onda da via permanente que devem ser priorizados na manutenção, bem como na análise da segurança do vagão quando na adoção de restrições de velocidades.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os altos índices de corrupção no Brasil levaram a criação de algumas leis com o intuito de combater este mal que corrói a democracia e que preocupa todos os países democráticos. Este trabalho busca verificar as novas ferramentas jurídicas, bem como a responder a uma questão. Há mais alguma reforma necessária? Alguns estudos apontam influência de aspectos do sistema eleitoral no índice de corrupção. Se há, que reforma nesse sentido o Brasil poderia adotar? Foram utilizados método dialético e método comparativo, para análise de doutrina e legislação estrangeiras, comparando-as com as nacionais, e método indutivo para a análise de dados. Foram feitos grandes avanços legislativos, mas há que discutir o que pode ser aprimorado para criar um ambiente menos fértil à corrupção e tornar mais eficazes os mecanismos de controle dos agentes públicos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aplicativos móveis de celulares que coletam dados pessoais estão cada vez mais presentes na rotina do cidadão comum. Associado a estas aplicações, há polêmicas sobre riscos de segurança e de invasão de privacidade, que podem se tornar entraves para aceitação destes sistemas por parte dos usuários. Por outro lado, discute-se o Paradoxo da Privacidade, em que os consumidores revelam mais informações pessoais voluntariamente, apesar de declarar que reconhecem os riscos. Há pouco consenso, nas pesquisas acadêmicas, sobre os motivos deste paradoxo ou mesmo se este fenômeno realmente existe. O objetivo desta pesquisa é analisar como a coleta de informações sensíveis influencia a escolha de aplicativos móveis. A metodologia é o estudo de aplicativos disponíveis em lojas virtuais para celulares através de técnicas qualitativas e quantitativas. Os resultados indicam que os produtos mais populares da loja são aqueles que coletam mais dados pessoais. Porém, em uma análise minuciosa, observa-se que aqueles mais buscados também pertencem a empresas de boa reputação e possuem mais funcionalidades, que exigem maior acesso aos dados privativos do celular. Na survey realizada em seguida, nota-se que os consumidores reduzem o uso dos aplicativos quando consideram que o produto coleta dados excessivamente, mas a estratégia para proteger essas informações pode variar. No grupo dos usuários que usam aplicativos que coletam dados excessivamente, conclui-se que o motivo primordial para compartilhar informações pessoais são as funcionalidades. Além disso, esta pesquisa confirma que comparar os dados solicitados pelos aplicativos com a expectativa inicial do consumidor é um constructo complementar para avaliar preocupações com privacidade, ao invés de simplesmente analisar a quantidade de informações coletadas. O processo desta pesquisa também ilustrou que, dependendo do método utilizado para análise, é possível chegar a resultados opostos sobre a ocorrência ou não do paradoxo. Isso pode dar indícios sobre os motivos da falta de consenso sobre o assunto

Relevância:

60.00% 60.00%

Publicador:

Resumo:

No setor de energia elétrica, a área que se dedica ao estudo da inserção de novos parques geradores de energia no sistema é denominada planejamento da expansão da geração. Nesta área, as decisões de localização e instalação de novas usinas devem ser amplamente analisadas, a fim de se obter os diversos cenários proporcionados pelas alternativas geradas. Por uma série de fatores, o sistema de geração elétrico brasileiro, com predominância hidroelétrica, tende a ser gradualmente alterada pela inserção de usinas termoelétricas (UTEs). O problema de localização de UTEs envolve um grande número de variáveis através do qual deve ser possível analisar a importância e contribuição de cada uma. O objetivo geral deste trabalho é o desenvolvimento de um modelo de localização de usinas termoelétricas, aqui denominado SIGTE (Sistema de Informação Geográfica para Geração Termoelétrica), o qual integra as funcionalidades das ferramentas SIGs (Sistemas de Informação Geográfica) e dos métodos de decisão multicritério. A partir de uma visão global da área estudada, as componentes espaciais do problema (localização dos municípios, tipos de transporte, linhas de transmissão de diferentes tensões, áreas de preservação ambiental, etc.) podem ter uma representação mais próxima da realidade e critérios ambientais podem ser incluídos na análise. Além disso, o SIGTE permite a inserção de novas variáveis de decisão sem prejuízo da abordagem. O modelo desenvolvido foi aplicado para a realidade do Estado de São Paulo, mas deixando claro a viabilidade de uso do modelo para outro sistema ou região, com a devida atualização dos bancos de dados correspondentes. Este modelo é designado para auxiliar empreendedores que venham a ter interesse em construir uma usina ou órgãos governamentais que possuem a função de avaliar e deferir ou não a licença de instalação e operação de usinas.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Propõe-se método novo e completo para análise de acetona em ar exalado envolvendo coleta com pré-concentração em água, derivatização química e determinação eletroquímica assistida por novo algoritmo de processamento de sinais. Na literatura recente a acetona expirada vem sendo avaliada como biomarcador para monitoramento não invasivo de quadros clínicos como diabetes e insuficiência cardíaca, daí a importância da proposta. Entre as aminas que reagem com acetona para formar iminas eletroativas, estudadas por polarografia em meados do século passado, a glicina apresentou melhor conjunto de características para a definição do método de determinação por voltametria de onda quadrada sem a necessidade de remoção de oxigênio (25 Hz, amplitude de 20 mV, incremento de 5 mV, eletrodo de gota de mercúrio). O meio reacional, composto de glicina (2 mol·L-1) em meio NaOH (1 mol·L-1), serviu também de eletrólito e o pico de redução da imina em -1,57 V vs. Ag|AgCl constituiu o sinal analítico. Para tratamento dos sinais, foi desenvolvido e avaliado um algoritmo inovador baseado em interpolação de linha base por ajuste de curvas de Bézier e ajuste de gaussiana ao pico. Essa combinação permitiu reconhecimento e quantificação de picos relativamente baixos e largos sobre linha com curvatura acentuada e ruído, situação em que métodos convencionais falham e curvas do tipo spline se mostraram menos apropriadas. A implementação do algoritmo (disponível em http://github.com/batistagl/chemapps) foi realizada utilizando programa open source de álgebra matricial integrado diretamente com software de controle do potenciostato. Para demonstrar a generalidade da extensão dos recursos nativos do equipamento mediante integração com programação externa em linguagem Octave (open source), implementou-se a técnica da cronocoulometria tridimensional, com visualização de resultados já tratados em projeções de malha de perspectiva 3D sob qualquer ângulo. A determinação eletroquímica de acetona em fase aquosa, assistida pelo algoritmo baseado em curvas de Bézier, é rápida e automática, tem limite de detecção de 3,5·10-6 mol·L-1 (0,2 mg·L-1) e faixa linear que atende aos requisitos da análise em ar exalado. O acetaldeído, comumente presente em ar exalado, em especial, após consumo de bebidas alcoólicas, dá origem a pico voltamétrico em -1,40 V, contornando interferência que prejudica vários outros métodos publicados na literatura e abrindo possibilidade de determinação simultânea. Resultados obtidos com amostras reais são concordantes com os obtidos por método espectrofotométrico, em uso rotineiro desde o seu aperfeiçoamento na dissertação de mestrado do autor desta tese. Em relação à dissertação, também se otimizou a geometria do dispositivo de coleta, de modo a concentrar a acetona num volume menor de água gelada e prover maior conforto ao paciente. O método completo apresentado, englobando o dispositivo de amostragem aperfeiçoado e o novo e efetivo algoritmo para tratamento automático de sinais voltamétricos, está pronto para ser aplicado. Evolução para um analisador portátil depende de melhorias no limite de detecção e facilidade de obtenção eletrodos sólidos (impressos) com filme de mercúrio, vez que eletrodos de bismuto ou diamante dopado com boro, entre outros, não apresentaram resposta.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

As primeiras agências reguladoras foram criadas a partir da segunda metade dos anos 1990, e a mais recente delas, em 2005. Com as agências surgiram também os atores privados regulados, os usuários e consumidores, e uma nova forma de interação entre os Poderes Executivo, Legislativo e Judiciário. Esses atores participam e dão forma ao processo de aprendizagem institucional das agências. Passado o período de criação e após quase duas décadas de existência, é necessária uma visão crítica sobre as agências. Propõe-se, então, um método de avaliação regulatória a partir de três variáveis que serão decompostas em diversas subvariáveis (quesitos a serem respondidos objetivamente). A primeira variável, institucionalização, mede as regras aplicáveis à própria agência: características dos mandatos dos dirigentes, autonomia decisória, autonomia financeira e de gestão de pessoal. A segunda, procedimentalização, ocupa-se do processo de tomada de decisão da agência e de sua transparência. Ambas as variáveis procuram medir as agências do ponto de vista formal, a partir de normas aplicáveis (leis, decretos, resoluções, portarias etc.), e pela prática regulatória, com base nos fatos ocorridos demonstrados por meio de documentos oficiais (decretos de nomeação, decisões, relatórios de atividade das próprias agências etc.). A última variável, judicialização, aponta as várias vezes em que a decisão administrativa muda de status e o nível de confirmação dessas decisões pelo Poder Judiciário. O modelo teórico de avaliação das agências ora apresentado é aplicado e testado em três setores que são submetidos à regulação econômica e contam com forte presença de atores sociais e empresa estatal federal. Assim, as agências analisadas foram: Agência Nacional de Energia Elétrica ANEEL, Agência Nacional de Telecomunicações ANATEL e Agência Nacional de Aviação Civil ANAC. Em termos gerais, não é possível garantir a existência de um isoformismo entre essas agências, nem mesmo entre agências criadas em momentos diferentes e por presidentes distintos. Também não foi possível demonstrar que a interferência política seja uma marca de um único governo. A ANATEL, a melhor avaliada das três agências, destaca-se pelo rigor de suas normas que seu processo decisório reflete. A ANEEL e a ANAC tiveram uma avaliação mediana já que apresentaram avaliação sofrível quanto ao processo, mas mostraram ter instituições (regras) um pouco melhores.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho propõe uma extensão do método de propagação de feixe (BPM - Beam Propagation Method) para a análise de guias de ondas ópticos e acopladores baseados em materiais não-lineares do tipo Kerr. Este método se destina à investigação de estruturas onde a utilização da equação escalar de Helmholtz (EEH) em seu limite paraxial não mais se aplica. Os métodos desenvolvidos para este fim são denominados na literatura como métodos de propagação de feixe de ângulo largo. O formalismo aqui desenvolvido é baseado na técnica das diferenças finitas e nos esquemas de Crank-Nicholson (CN) e Douglas generalizado (GD). Estes esquemas apresentam como característica o fato de apresentarem um erro de truncamento em relação ao passo de discretização transversal, Δx, proporcional a O(Δx2) para o primeiro e O(Δx4). A convergência do método em ambos esquemas é otimizada pela utilização de um algoritmo interativo para a correção do campo no meio não-linear. O formalismo de ângulo largo é obtido pela expansão da EEH para os esquemas CN e GD em termos de polinômios aproximantes de Padé de ordem (1,0) e (1,1) para CN e GD, e (2,2) e (3,3) para CN. Os aproximantes de ordem superior a (1,1) apresentam sérios problemas de estabilidade. Este problema é eliminado pela rotação dos aproximantes no plano complexo. Duas condições de contorno nos extremos da janela computacional são também investigadas: 1) (TBC - Transparent Boundary Condition) e 2) condição de contorno absorvente (TAB - Transparent Absorbing Boundary). Estas condições de contorno possuem a facilidade de evitar que reflexões indesejáveis sejam transmitidas para dentro da janela computacional. Um estudo comparativo da influência destas condições de contorno na solução de guias de ondas ópticos não-lineares é também abordada neste trabalho.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O cadastramento de peritos cíveis junto ao Poder Judiciário atualmente não é feito eletronicamente e o rol de profissionais não é divulgado pela internet, sendo necessário que os profissionais se cadastrem pessoalmente em cada fórum. Também não existe atualmente uma avaliação dos trabalhos periciais realizados, o que faz com que o resultado dos trabalhos periciais, ou seja, o laudo pericial tenha muitos defeitos e acabe por não ter a qualidade necessária para auxiliar o juiz em sua tomada de decisão. Após a realização de uma pesquisa com peritos sobre suas impressões quanto à forma de cadastramento atualmente utilizada, aplicou-se o método Analytic Hierarchy Process (AHP) para auxiliar na identificação do perfil dos profissionais que desejam modificações no sistema. Foram então feitas observações e sugestões para que este modelo atualmente utilizado seja modificado e possa assim atender aos princípios constitucionais da publicidade, eficiência e finalidade.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Um dos grandes desafios enfrentados pelos fabricantes de turbinas hidráulicas é prevenir o aparecimento de vibrações induzidas pelo escoamento nas travessas do pré-distribuidor e pás do rotor. Considerando apenas as travessas, e atribuídos a tais vibrações, foram relatados 28 casos de trincas ou ruídos anormais nas últimas décadas, que acarretaram enormes prejuízos associados a reparos, atrasos e perda de geração. O estado da arte na prevenção destes problemas baseia-se na utilização de sofisticados, e caros, programas comerciais de dinâmica dos fluidos computacional para o cálculo transiente do fenômeno. Este trabalho faz uma ampla revisão bibliográfica e levantamento de eventos de trincas ou ruídos ocorridos em travessas nos últimos 50 anos. Propõe, então, um enfoque alternativo, baseado exclusivamente em ferramentas de código aberto. A partir de hipóteses simplificadoras devidamente justificadas, o problema é formulado matematicamente de forma bidimensional, no plano da seção transversal da travessa, levando em conta a interação fluido-estrutura. Nesta estratégia, as equações de Navier-Stokes são resolvidas pelo método dos elementos finitos por meio da biblioteca gratuita oomph-lib. Um código especial em C++ é desenvolvido para o problema de interação fluido-estrutura, no qual o fenômeno de turbulência é levado em consideração por meio de um algoritmo baseado no modelo de Baldwin-Lomax. O método proposto é validado por meio da comparação dos resultados obtidos com referências e medições disponíveis na literatura, que tratam de problemas de barras retangulares suportadas elasticamente. O trabalho finaliza com a aplicação do método a um estudo de caso envolvendo uma travessa particular.