13 resultados para Análise multi-critério
em Biblioteca de Teses e Dissertações da USP
Resumo:
Trata-se da meta-avaliação de um processo avaliativo desenvolvido por secretários e assessores técnicos municipais de uma região de saúde do estado de São Paulo, com foco nos critérios de utilidade e participação. É uma pesquisa qualitativa, cuja base empírica foi 1) o material produzido em sete oficinas realizadas com os representantes municipais, com vistas à avaliação de um aspecto da linha de cuidados em saúde sob a ótica da integralidade; e 2) as entrevistas semiestruturadas realizadas com os mesmos atores após a finalização do processo avaliativo. Para a avaliação do critério de utilidade, utilizou-se principalmente o referencial de KIRKHART (2000), com o objetivo de ampliar a análise para além do uso instrumental dos achados avaliativos e focá-la na identificação de influências múltiplas exercidas por um fenômeno complexo como um processo avaliativo. A análise do critério participação se deu com base no referencial de COUSINS e WHITMORE (1998), buscando a identificação no material empírico de decisões ou aspectos contextuais que fizeram com que a opção participativa fosse aprofundada ou limitada no processo em foco. O trabalho destaca a importância de explicitar pressupostos que baseiam a metodologia da avaliação/ meta-avaliação escolhida, e a necessidade de se buscar referenciais teóricos de análise compatíveis com a opção realizada, frisando a inexistência de posturas neutras ou estudos totalmente objetivos; e a importância de capacitar avaliadores a acompanharem a demanda dos participantes de um processo participativo com a flexibilidade necessária para conferir-lhe o maior aproveitamento possível. Conclui-se pela viabilidade, com vantagens, da realização de processos participativos locais com gestores na Saúde Pública, destacando a possibilidade de ganhos em formação e o enriquecimento dos processos de negociação em nível do território, de forma coerente à política de construção das regiões de saúde no SUS.
Resumo:
Geralmente, nos experimentos genótipo por ambiente (G × E) é comum observar o comportamento dos genótipos em relação a distintos atributos nos ambientes considerados. A análise deste tipo de experimentos tem sido abordada amplamente para o caso de um único atributo. Nesta tese são apresentadas algumas alternativas de análise considerando genótipos, ambientes e atributos simultaneamente. A primeira, é baseada no método de mistura de máxima verossimilhança de agrupamento - Mixclus e a análise de componentes principais de 3 modos - 3MPCA, que permitem a análise de tabelas de tripla entrada, estes dois métodos têm sido muito usados na área da psicologia e da química, mas pouco na agricultura. A segunda, é uma metodologia que combina, o modelo de efeitos aditivos com interação multiplicativa - AMMI, modelo eficiente para a análise de experimentos (G × E) com um atributo e a análise de procrustes generalizada, que permite comparar configurações de pontos e proporcionar uma medida numérica de quanto elas diferem. Finalmente, é apresentada uma alternativa para realizar imputação de dados nos experimentos (G × E), pois, uma situação muito frequente nestes experimentos, é a presença de dados faltantes. Conclui-se que as metodologias propostas constituem ferramentas úteis para a análise de experimentos (G × E) multiatributo.
Resumo:
O objetivo deste estudo consistiu-se em analisar os fatores influentes no comportamento de compra industrial, na situação de decisão de crédito bancário em pequenas empresas. Para tanto, foram entregues questionários a doze empresas da indústria gráfica, selecionadas pelo número de empregados (de 20 a 100 - pequenas indústrias, segundo o critério do IBGE), localizadas no Distrito Federal e associadas ao sindicato da categoria. De acordo com resultados obtidos por meio do levantamento de campo, as conclusões desta pesquisa puderam ser exploradas tendo-se como base três pontos principais: a) os resultados relativos aos fatores influentes no comportamento do consumidor industrial, tais como os referentes a importância da localização geográfica do fornecedor, dos seus recursos tecnológicos e da redução, pelos compradores, dos riscos percebidos nas decisões de compras, dentre outros que mostraram-se condizentes com as pressuposições do modelo de comportamento do mercado industrial adotado; b) a discussão relativa à situação de decisão de crédito bancário, baseado na literatura pesquisada. De acordo com os resultados, puderam-se detalhar os aspectos relativos aos atributos dos bancos e do crédito, destacando-se, dentre outros, a importância da imagem da instituição financeira, da qualidade do gerente de contas e do custo dos empréstimos e financiamentos; c) as especificidades da pequena empresa, que puderam ser visualizadas nos resultados da pesquisa de campo como, por exemplo, a estratégia intuitiva e pouco formalizada, a situação extra-organizacional incontrolável e a racionalidade político-econômico-familiar do pequeno empresário.
Resumo:
O objeto desta pesquisa são as relações entre os conceitos de interpretação conforme a Constituição e os limites à utilização, segundo a doutrina brasileira. O propósito é verificar se e como os diferentes conceitos de interpretação conforme a Constituição empregados pelos autores influenciam seus argumentos em torno dos limites à utilização desse instrumento. Parte-se de um referencial teórico de análise conceitual, ancorado sobretudo nos trabalhos de Brian Bix e Andrew Halpin, para estruturar-se a identificação e a análise dos diferentes conceitos presentes na literatura. Opta-se pela apresentação das ideias dos autores mais influentes na doutrina nacional, selecionados a partir de um critério de número de citações e especialidade da obra. Ao final, conclui-se que: (a) os autores utilizam ao menos nove conceitos diferentes: (i) como interpretação orientada pela Constituição, (ii) integração conforme a Constituição, critério normativo (iii) com e (iv) sem declaração de inconstitucionalidade, (v) interpretação extensiva ou restritiva de acordo com a Constituição, (vi) declaração de inconstitucionalidade da interpretação em concreto, (vii) um tipo de decisão com estrutura específica e (viii) um tipo de dispositivo decisório específico; (ix) um argumento retórico; (b) que os autores geralmente mencionam os mesmos limites, independentemente do conceito que adotam; (c) que, no entanto, os limites não se adequam da mesma forma a todos os conceitos empregados. Sustenta-se que o esclarecimento dessas relações é capaz de aumentar a compreensão sobre o tema, inclusive para os fins de análise da jurisprudência.
Resumo:
Os motores de indução trifásicos são os principais elementos de conversão de energia elétrica em mecânica motriz aplicados em vários setores produtivos. Identificar um defeito no motor em operação pode fornecer, antes que ele falhe, maior segurança no processo de tomada de decisão sobre a manutenção da máquina, redução de custos e aumento de disponibilidade. Nesta tese são apresentas inicialmente uma revisão bibliográfica e a metodologia geral para a reprodução dos defeitos nos motores e a aplicação da técnica de discretização dos sinais de correntes e tensões no domínio do tempo. É também desenvolvido um estudo comparativo entre métodos de classificação de padrões para a identificação de defeitos nestas máquinas, tais como: Naive Bayes, k-Nearest Neighbor, Support Vector Machine (Sequential Minimal Optimization), Rede Neural Artificial (Perceptron Multicamadas), Repeated Incremental Pruning to Produce Error Reduction e C4.5 Decision Tree. Também aplicou-se o conceito de Sistemas Multiagentes (SMA) para suportar a utilização de múltiplos métodos concorrentes de forma distribuída para reconhecimento de padrões de defeitos em rolamentos defeituosos, quebras nas barras da gaiola de esquilo do rotor e curto-circuito entre as bobinas do enrolamento do estator de motores de indução trifásicos. Complementarmente, algumas estratégias para a definição da severidade dos defeitos supracitados em motores foram exploradas, fazendo inclusive uma averiguação da influência do desequilíbrio de tensão na alimentação da máquina para a determinação destas anomalias. Os dados experimentais foram adquiridos por meio de uma bancada experimental em laboratório com motores de potência de 1 e 2 cv acionados diretamente na rede elétrica, operando em várias condições de desequilíbrio das tensões e variações da carga mecânica aplicada ao eixo do motor.
Resumo:
Este trabalho apresenta resultados geoquímicos multielementares de sedimentos de corrente no estado de São Paulo, obtidos através do projeto institucional do Serviço Geológico do Brasil denominado \"Levantamento Geoquímico de Baixa Densidade no Brasil\". Dados analíticos de 1422 amostras de sedimento de corrente obtidos por ICP-MS (Inductively Coupled Plasma Mass Spectrometry), para 32 elementos químicos (Al, Ba, Be, Ca, Ce, Co, Cr, Cs, Cu, Fe, Ga, Hf, K, La, Mg, Mn, Mo, Nb, Ni, P, Pb, Rb, Sc, Sn, Sr, Th, Ti, U, V, Y, Zn e Zr), foram processadas e abordadas através da análise estatística uni e multivariada. Os resultados do tratamento dos dados através de técnicas estatísticas univariadas forneceram os valores de background geoquímico (teor de fundo) dos 32 elementos para todo estado de São Paulo. A análise georreferenciada das distribuições geoquímicas unielementares evidenciaram a compartimentação geológica da área. As duas principais províncias geológicas do estado de São Paulo, Bacia do Paraná e Complexo Cristalino, se destacam claramente na maioria das distribuições geoquímicas. Unidades geológicas de maior expressão, como a Formação Serra Geral e o Grupo Bauru também foram claramente destacadas. Outras feições geoquímicas indicaram possíveis áreas contaminadas e unidades geológicas não cartografadas. Os resultados da aplicação de métodos estatísticos multivariados aos dados geoquímicos com 24 variáveis (Al, Ba, Ce, Co, Cr, Cs, Cu, Fe, Ga, La, Mn, Nb, Ni, Pb, Rb, Sc, Sr, Th, Ti, U, V, Y, Zn e Zr) permitiram definir as principais assinaturas e associações geoquímicas existentes em todo estado de São Paulo e correlacioná-las aos principais domínios litológicos. A análise de agrupamentos em modo Q forneceu oito grupos de amostras geoquimicamente correlacionáveis, que georreferenciadas reproduziram os principais compartimentos geológicos do estado: Complexo Cristalino, Grupos Itararé e Passa Dois, Formação Serra Geral e Grupos Bauru e Caiuá. A análise discriminante multigrupos comprovou, estatisticamente, a classificação dos grupos formados pela análise de agrupamentos e forneceu as principais variáveis discriminantes: Fe, Co, Sc, V e Cu. A análise de componentes principais, abordada em conjunto com a análise fatorial pelo método de rotação varimax, forneceram os principais fatores multivariados e suas respectivas associações elementares. O georreferenciamento dos valores de escores fatoriais multivariados delimitaram as áreas onde as associações elementares ocorrem e forneceram mapas multivariados para todo o estado. Por fim, conclui-se que os métodos estatísticos aplicados são indispensáveis no tratamento, apresentação e interpretação de dados geoquímicos. Ademais, com base em uma visão integrada dos resultados obtidos, este trabalho recomenda: (1) a execução dos levantamentos geoquímicos de baixa densidade em todo país em caráter de prioridade, pois são altamente eficazes na definição de backgrounds regionais e delimitação de províncias geoquímicas com interesse metalogenético e ambiental; (2) a execução do mapeamento geológico contínuo em escala adequada (maiores que 1:100.000) em áreas que apontam para possíveis existências de unidades não cartografadas nos mapas geológicos atuais.
Resumo:
Desde a década de 1980 diversos autores apresentaram correlações entre provas de carga estática e ensaios de carregamento dinâmico em estacas. Para uma boa correlação é fundamental que os testes sejam bem executados e que atinjam a ruptura segundo algum critério, como o de Davisson, por exemplo, além de levar em conta o intervalo de tempo entre a execução da prova de carga estática e do ensaio dinâmico, face ao efeito \"set up\". Após a realização do ensaio dinâmico realiza-se a análise CAPWAP que permite a determinação da distribuição do atrito lateral em profundidade, a carga de ponta e outros parâmetros dos solos tais como quakes e damping. A análise CAPWAP é realizada por tentativas através do procedimento \"signal matching\", isto é, o melhor ajuste entre os sinais de força medido pelos sensores e o calculado. É relativamente fácil mostrar que a mesma solução pode ser obtida através de dados de entrada diferentes. Isso significa que apesar de apresentarem cargas mobilizadas próximas o formato da curva da simulação de prova de carga estática, obtida pelo CAPWAP, assim como a distribuição do atrito lateral, podem ser diferentes, mesmo que as análises apresentem \"match quality\" (MQWU) satisfatórios. Uma forma de corrigir o formato da curva simulada do CAPWAP, assim como a distribuição do atrito lateral, é através da comparação com provas de carga estática (PCE). A sobreposição das duas curvas, a simulada e a \"real\", permite a determinação do quake do fuste através do trecho inicial da curva carga-recalque da prova de carga estática, que por sua vez permite uma melhor definição da distribuição do atrito lateral e da reação de ponta. Neste contexto surge o conceito de \"match quality de recalques\" (MQR). Quando a PCE não está disponível, propõe-se efetuar um carregamento estático utilizando o peso próprio do martelo do bate-estaca (CEPM). Mostra-se, através de dois casos de obra, em que estavam disponíveis ensaios de carregamento dinâmico e PCEs, que esse procedimento permite obter uma melhor solução do ponto de vista físico, isto é consistente com as características do subsolo e com a curva carga-recalque da PCE, e não apenas matemático, através da avaliação do \"match quality\" (MQWU).
Resumo:
A Biologia Computacional tem desenvolvido algoritmos aplicados a problemas relevantes da Biologia. Um desses problemas é a Protein Structure Prediction (PSP). Vários métodos têm sido desenvolvidos na literatura para lidar com esse problema. Porém a reprodução de resultados e a comparação dos mesmos não têm sido uma tarefa fácil. Nesse sentido, o Critical Assessment of protein Structure Prediction (CASP), busca entre seus objetivos, realizar tais comparações. Além disso, os sistemas desenvolvidos para esse problema em geral não possuem interface amigável, não favorecendo o uso por não especialistas da computação. Buscando reduzir essas dificuldades, este trabalho propões o Koala, um sistema baseado em uma plataforma web, que integra vários métodos de predição e análises de estruturas de proteínas, possibilitando a execução de experimentos complexos com o uso de fluxos de trabalhos. Os métodos de predição disponíveis podem ser integrados para a realização de análises dos resultados, usando as métricas RMSD, GDT-TS ou TM-Score. Além disso, o método Sort by front dominance (baseado no critério de optimalidade de Pareto), proposto nesse trabalho, consegue avaliar predições sem uma estrutura de referência. Os resultados obtidos, usando proteínas alvo de artigos recentes e do CASP11, indicam que o Koala tem capacidade de realizar um conjunto relativamente grande de experimentos estruturados, beneficiando a determinação de melhores estruturas de proteínas, bem como o desenvolvimento de novas abordagens para predição e análise por meio de fluxos de trabalho.
Resumo:
Neste trabalho, deriva-se uma política de escolha ótima baseada na análise de média-variância para o Erro de Rastreamento no cenário Multi-período - ERM -. Referindo-se ao ERM como a diferença entre o capital acumulado pela carteira escolhida e o acumulado pela carteira de um benchmark. Assim, foi aplicada a metodologia abordada por Li-Ng em [24] para a solução analítica, obtendo-se dessa maneira uma generalização do caso uniperíodo introduzido por Roll em [38]. Em seguida, selecionou-se um portfólio do mercado de ações brasileiro baseado no fator de orrelação, e adotou-se como benchmark o índice da bolsa de valores do estado de São Paulo IBOVESPA, além da taxa básica de juros SELIC como ativo de renda fixa. Dois casos foram abordados: carteira composta somente de ativos de risco, caso I, e carteira com um ativo sem risco indexado à SELIC - e ativos do caso I (caso II).
Resumo:
O objetivo deste trabalho é analisar o impacto dos Sistemas de Gestão Integrados (SGI) no desempenho organizacional sob a óptica do Triple Bottom Line (TBL), verificando se esta implementação auxilia a empresa a se tornar mais sustentável. A abordagem multi-método utilizada está dividida em três partes. A primeira compreende uma revisão sistemática da literatura, tendo como base a abordagem bibliométrica. A base de dados escolhida para a seleção dos artigos que compõem a amostra foi a ISI Web of Knowledge (Web of Science). As análises conduzidas sugerem lacunas na literatura a serem pesquisadas de modo a relacionar a integração dos sistemas de gestão como meio para as organizações tornarem-se mais sustentáveis, auxiliando assim na elaboração de um modelo teórico e das hipóteses de pesquisa. Os resultados parciais obtidos ressaltam a lacuna na literatura de estudos nessa área, principalmente que contemplem a dimensão social do Triple Bottom Line. Lacunas na literatura foram identificadas também no que se refere à análise do impacto da adoção dessas abordagens normativas no desempenho organizacional. A segunda etapa da metodologia é composta por estudos de casos múltiplos em empresas de diferentes setores e que tenham implantado sistemas de gestão de maneira integrada. Os resultados obtidos mostram que a certificação auxilia no desenvolvimento de ações sustentáveis, resultando em impactos econômicos, ambientais e sociais positivos. Nesta etapa, testou-se o modelo e as hipóteses levantadas na abordagem bibliométrica. A terceira etapa da metodologia é composta por análises estatísticas de dados secundários extraídos da revista Exame ?Maiores e Melhores\'. Os dados do ano de 2014 das empresas foram tratados por meio do software MINITAB 17 ®. Por meio do teste de mediana de mood, as amostras foram testadas e apresentaram diferenças estatisticamente significativas para o desempenho das empresas em diferentes setores. De maneira geral, as empresas com SGI apresentam melhor desempenho econômico do que as demais. Com a mesma base de dados, utilizando o modelo de equações estruturais e o software Smart PLS 2.0, criou-se um diagrama de caminhos analisando os constructos (SGI) com variáveis de desempenho (Endividamento, Lucratividade, Patrimônio, Crescimento e Retorno). O modelo de equações estruturais testado apresentou força para a relação entre SGI com Endividamento, Lucratividade, Patrimônio e Crescimento. As diferentes metodologias apresentadas contribuíram para responder a hipótese e afirmar com base na amostra deste trabalho que o SGI leva as empresas a terem melhor desempenho econômico, ambiental e social (baseado no TBL).
Resumo:
Devido às tendências de crescimento da quantidade de dados processados e a crescente necessidade por computação de alto desempenho, mudanças significativas estão acontecendo no projeto de arquiteturas de computadores. Com isso, tem-se migrado do paradigma sequencial para o paralelo, com centenas ou milhares de núcleos de processamento em um mesmo chip. Dentro desse contexto, o gerenciamento de energia torna-se cada vez mais importante, principalmente em sistemas embarcados, que geralmente são alimentados por baterias. De acordo com a Lei de Moore, o desempenho de um processador dobra a cada 18 meses, porém a capacidade das baterias dobra somente a cada 10 anos. Esta situação provoca uma enorme lacuna, que pode ser amenizada com a utilização de arquiteturas multi-cores heterogêneas. Um desafio fundamental que permanece em aberto para estas arquiteturas é realizar a integração entre desenvolvimento de código embarcado, escalonamento e hardware para gerenciamento de energia. O objetivo geral deste trabalho de doutorado é investigar técnicas para otimização da relação desempenho/consumo de energia em arquiteturas multi-cores heterogêneas single-ISA implementadas em FPGA. Nesse sentido, buscou-se por soluções que obtivessem o melhor desempenho possível a um consumo de energia ótimo. Isto foi feito por meio da combinação de mineração de dados para a análise de softwares baseados em threads aliadas às técnicas tradicionais para gerenciamento de energia, como way-shutdown dinâmico, e uma nova política de escalonamento heterogeneity-aware. Como principais contribuições pode-se citar a combinação de técnicas de gerenciamento de energia em diversos níveis como o nível do hardware, do escalonamento e da compilação; e uma política de escalonamento integrada com uma arquitetura multi-core heterogênea em relação ao tamanho da memória cache L1.
Resumo:
Com este estudo procurou se identificar os resultados produzidos pela aprendizagem do tipo Bottom-Up (BU) em organizações, tendo-se em vista que as variáveis Cultura Organizacional de Aprendizagem (COA), Mecanismos de Coordenação e Integração (MCI) e Liderança (LID) podem interferir na relação entre o método de aprendizagem e os resultados obtidos pela organização. Para se compreender o fenômeno, após uma pesquisa bibliográfica, foi desenvolvido um estudo multicaso pela metodologia proposta por Yin (2009). Foram pesquisadas quatro organizações atuantes em segmentos distintos, nomeadas neste estudo como \"Empresa X\" (setor farmacêutico), \"Empresa Y\" (setor alimentício/franquia), \"Empresa Z\" (indústria e comércio de calçados) e \"Empresa W\" (setor farmacêutico). Nestas empresas foram inquiridos o Diretor, o Vendedor e os responsáveis pelo setor da inovação, produção, comercial, financeiro e RH. Os respondentes foram entrevistados e preencheram um questionário, além de ter existido coleta prévia de dados secundários para maior compreensão dos fatos relacionados às empresas. Como resultado, constatou-se que nos casos analisados, aparentemente existe uma combinação entre o fator MCI e os constructos LID e COA, que possibilita a existência da aprendizagem do tipo BU. Os resultados provenientes desta combinação tendem a se manifestar em termos financeiros, competitivos e mercadológicos. A combinação do fator e os constructos não necessariamente conduzem à inovatividade da organização.
Resumo:
RESUMO Simulações de aeroacústica computacional demandam uma quantidade considerável de tempo, o que torna complicada a realização de estudos paramétricos. O presente trabalho propõe uma metodologia viável para otimização aeroacústica. Através da análise numérica utilizando dinâmica dos fluidos computacional, foi estudada a aplicação de uma placa separadora desacoplada como método de controle passivo da esteira turbulenta de um cilindro e avaliou-se a irradiação de ruído causado pela interação do escoamento com ambos os corpos, empregando ferramentas de aeroacústica computacional baseadas no método de Ffowcs-Williams e Hawkings. Algumas abordagens distintas de metodologias de otimização de projeto foram aplicadas neste problema, com o objetivo de chegar a uma configuração otimizada que permita a redução do nível sonoro ao longe. Assim, utilizando uma ferramenta de otimização multidisciplinar, pode-se avaliar a capacidade de modelos heurísticos e a grande vantagem do emprego de algoritmos baseados em método de superfície de resposta quando aplicados em um problema não linear, pois requerem a avaliação de um menor número de alternativas para se obter um ponto ótimo. Além disso, foi possível identificar e agrupar os resultados em 5 clusters baseados em seus parâmetros geométricos, nível de pressão sonora global e o valor quadrático médio do coeficiente de arrasto, confirmando a eficiência da aplicação de placas separadoras longas desacopladas posicionadas próximas ao cilindro na estabilização da esteira turbulenta, enquanto que o posicionamento de placas acima de um espaçamento crítico aumentou o nível de pressão acústica irradiado devido à formação de vórtices no espaço entre o cilindro e a placa separadora.