13 resultados para Lógica computacional
em Biblioteca de Teses e Dissertações da USP
Resumo:
A pesquisa apresenta uma adaptação do modelo matemático de lógica nebulosa. A adaptação é uma alternativa capaz de representar o comportamento de uma variável subjetiva ao longo de um intervalo de tempo, assim como tratar variáveis estáticas (como o modelo computacional existente). Pesquisas realizadas apontam para uma lacuna no tratamento de variáveis dinâmicas (dependência no tempo) e a proposta permite que o contexto em que as variáveis estão inseridas tenha um papel no entendimento e tomada de decisão de problemas com estas características. Modelos computacionais existentes tratam a questão temporal como sequenciador de eventos ou custo, sem considerar a influência de fenômenos passados na condição corrente, ao contrário do modelo proposto que permite uma contribuição dos acontecimentos anteriores no entendimento e tratamento do estado atual. Apenas para citar alguns exemplos, o uso da solução proposta pode ser aplicado na determinação de nível de conforto em transporte público ou auxiliar na aferição de grau de risco de investimentos no mercado de ações. Em ambos os casos, comparações realizadas entre o modelo de lógica nebulosa existente e a adaptação sugerida apontam uma diferença no resultado final que pode ser entendida como uma maior qualidade na informação de suporte à tomada de decisão.
Resumo:
Esta pesquisa tem como tema os discursos que circulam e estruturam o ambiente de trabalho nas empresas. De forma geral, busca-se compreender a lógica administrativa que, no limite, exerce uma condução da subjetividade dos trabalhadores. Temos por objetivos: 1) identificar como nas escolas do pensamento administrativo do século XX o engajamento do trabalho é requerido dos trabalhadores; 2) pretendemos discutir uma possível caracterização do discurso e dos usos da administração, como campo de conhecimento sobre o trabalho, dentro das organizações. Para tanto, estabelecemos como panorama teórico-metodológico nas ideias centrais de Michel Foucault em suas análises sobre a funcionalidade do poder e seus dispositivos. Propusemos uma perspectiva arqueogenealógica para a estudar o tema trabalho por meio da lógica da administração e do engajamento. Para estruturar esta análise, selecionamos disciplinas oferecidas e examinamos ementas e referências de leituras nos cursos de graduação da Escola de Administração de Empresas de São Paulo da Fundação Getúlio Vargas (EAESP-FGV) e do curso de Administração da Faculdade de Economia, Administração e Contabilidade da Universidade de São Paulo (FEA-USP). Diante do contato com a discursividade administrativa pudemos formular algumas reflexões. A Administração de Empresas é a ciência da demonstração, pautada na dominação da realidade por uma dita eficiência. É o que se faz produtivo da realidade ou o que se produz nela que se torna científico. Não há discussão, nos registros aqui investigados, de um questionamento sobre o discurso de eficiência, de melhores práticas e da localização das organizações como construções historicamente produzidas, apenas como produtoras de determinações. Não parece haver a possibilidade de desnaturalizar a empresa. A administração parece estar pautada em uma duplicação da dominação como a profissão que é moldada ao moldar o trabalho. Partimos também da análise do que se nomeia engajamento para compreender o que é requerido do trabalhador para além do contrato de trabalho e de sua produtividade material. Neste sentido, o trabalho torna-se uma experiência de educação em contínua e ininterrupta vigilância pedagógica. O efeito moral das técnicas e das provas nas correntes de pensamento da administração permite uma condução técnica e do modo de viver dos trabalhadores. Nesse sentido, a administração, propõe o aperfeiçoamento do cuidado de si no trabalho e para o trabalho. As disciplinas então se duplicam: pelo exterior, por meio da regra pautada na estrutura formal da autoridade da fábrica/empresa com o governo dos corpos; e pelo interior por meio de uma sujeição por identidade, pela estilização da vida
Resumo:
As expectativas da Organização Mundial de Saúde para o ano de 2030 são que o número de mortes por câncer seja de aproximadamente 13,2 milhões, evidenciando a elevada parcela desta doença no problema de saúde mundial. Com relação ao câncer de próstata, de acordo com o Instituto Nacional do Câncer, o número de casos diagnosticados no mundo em 2012 foi de aproximadamente 1,1 milhão, enquanto que no Brasil os dados indicam a incidência de 68 mil novos casos. O tratamento deste tipo de neoplasia pode ser realizado com cirurgia (prostatectomia) ou radioterapia. Dentre a radioterapia, podemos destacar a técnica de braquiterapia, a qual consiste na introdução (implante) de pequenas fontes radioativas (sementes) no interior da próstata, onde será entregue um valor elevado de dose no volume de tratamento e baixa dose nos tecidos ao redor. No Brasil, a classe médica estima uma demanda de aproximadamente 8000 sementes/mês, sendo o custo unitário de cada semente de pelo menos U$ 26,00. A Associação Americana de Físicos na Medicina publicou alguns documentos descrevendo quais parâmetros e análises devem ser realizadas para avaliações da distribuição de dose, como por exemplo, os parâmetros Constante de taxa de dose, Função radial e Função de anisotropia. Estes parâmetros podem ser obtidos através de medidas experimentais da distribuição de dose ou por simulações computacionais. Neste trabalho foram determinados os parâmetros dosimétricos da semente OncoSeed-6711 da empresa Oncura-GEHealthcare e da semente desenvolvida pelo Grupo de Dosimetria de Fontes de Braquiterapia do Centro de Tecnologia das Radiações (CTR IPEN-CNEN/SP) por simulação computacional da distribuição de dose utilizando o código MCNP5, baseado no Método de Monte Carlo. A semente 6711 foi modelada, assim como um sistema dosimétrico constituído por um objeto simulador cúbico de 30x30x30 cm3 preenchido com água. Os valores obtidos da semente 6711 foram comparados com alguns apresentados na literatura, onde o parâmetro Constante de taxa de dose apresentou erro relativo em relação ao valor publicado no TG- 43 de 0,1%, sendo que os outros parâmetros analisados também apresentaram boa concordância com os valores publicados na literatura. Deste modo, pode-se considerar que os parâmetros utilizados nas simulações (espectro, modelagem geométrica e avaliação de resultados) estão compatíveis com outros estudos, sendo estes parâmetros também utilizados nas simulações da semente do IPEN. Considerando as análises de incerteza estatística, os valores obtidos da semente do IPEN são semelhantes aos valores da semente 6711.
Resumo:
Esta tese apresenta uma abordagem para a criação rápida de modelos em diferentes geometrias (complexas ou de alta simetria) com objetivo de calcular a correspondente intensidade espalhada, podendo esta ser utilizada na descrição de experimentos de es- palhamento à baixos ângulos. A modelagem pode ser realizada com mais de 100 geome- trias catalogadas em um Banco de Dados, além da possibilidade de construir estruturas a partir de posições aleatórias distribuídas na superfície de uma esfera. Em todos os casos os modelos são gerados por meio do método de elementos finitos compondo uma única geometria, ou ainda, compondo diferentes geometrias, combinadas entre si a partir de um número baixo de parâmetros. Para realizar essa tarefa foi desenvolvido um programa em Fortran, chamado de Polygen, que permite modelar geometrias convexas em diferentes formas, como sólidos, cascas, ou ainda com esferas ou estruturas do tipo DNA nas arestas, além de usar esses modelos para simular a curva de intensidade espalhada para sistemas orientados e aleatoriamente orientados. A curva de intensidade de espalhamento é calculada por meio da equação de Debye e os parâmetros que compõe cada um dos modelos, podem ser otimizados pelo ajuste contra dados experimentais, por meio de métodos de minimização baseados em simulated annealing, Levenberg-Marquardt e algorítmicos genéticos. A minimização permite ajustar os parâmetros do modelo (ou composição de modelos) como tamanho, densidade eletrônica, raio das subunidades, entre outros, contribuindo para fornecer uma nova ferramenta para modelagem e análise de dados de espalhamento. Em outra etapa desta tese, é apresentado o design de modelos atomísticos e a sua respectiva simulação por Dinâmica Molecular. A geometria de dois sistemas auto-organizado de DNA na forma de octaedro truncado, um com linkers de 7 Adeninas e outro com linkers de ATATATA, foram escolhidas para realizar a modelagem atomística e a simulação por Dinâmica Molecular. Para este sistema são apresentados os resultados de Root Mean Square Deviations (RMSD), Root Mean Square Fluctuations (RMSF), raio de giro, torção das hélices duplas de DNA além da avaliação das ligações de Hidrogênio, todos obtidos por meio da análise de uma trajetória de 50 ns.
Resumo:
No gerenciamento de recursos hídricos, a bacia hidrográfica é considerada a unidade natural de gestão. Suas características físicas definem um espaço onde a água converge para uma saída comum. O desenvolvimento integrado de uma bacia, bem como os possíveis conflitos ocasionados por demandas concorrentes do mesmo recurso, devem ser administrados respeitando esse conceito de unidade. No caso específico da bacia hidrográfica do Rio Jaguari, existe uma crescente preocupação relacionada aos usos múltiplos da água superficial. O rio Jaguari, importante afluente do Paraíba do Sul no estado de São Paulo, tem suas águas represadas para geração de energia elétrica e regularização de vazões. Nos últimos anos, tem-se constatado um crescente rebaixamento dos níveis operacionais da represa do Jaguari. Segundo estudos da sociedade civil organizada local, a tendência é de esgotamento do reservatório em poucos anos. Este trabalho aborda a questão do rebaixamento dos níveis de Jaguari através da aplicação do software DHI Mike Basin 2000. Trata-se de um simulador genérico para sistemas de recursos hídricos, de ampla aplicação. A bacia do Jaguari é representada em um modelo matemático e são simulados quatro cenários distintos de usos de água na bacia. Verifica-se que o problema é real e requer uma intervenção multi-institucional para ser solucionado.
Resumo:
Este trabalho trata do desenvolvimento de um sistema computacional, para a geração de dados e apresentação de resultados, específico para as estruturas de edifícios. As rotinas desenvolvidas devem trabalhar em conjunto com um sistema computacional para análise de estruturas com base no Método dos Elementos Finitos, contemplando tanto as estruturas de pavimentos; com a utilização de elementos de barra, placa/casca e molas; como as estruturas de contraventamento; com a utilização de elementos de barra tridimensional e recursos especiais como nó mestre e trechos rígidos. A linguagem computacional adotada para a elaboração das rotinas mencionadas é o Object Pascal do DELPHI, um ambiente de programação visual estruturado na programação orientada a objetos do Object Pascal. Essa escolha tem como objetivo, conseguir um sistema computacional onde alterações e adições de funções possam ser realizadas com facilidade, sem que todo o conjunto de programas precise ser analisado e modificado. Por fim, o programa deve servir como um verdadeiro ambiente para análise de estruturas de edifícios, controlando através de uma interface amigável com o usuário uma série de outros programas já desenvolvidos em FORTRAN, como por exemplo o dimensionamento de vigas, pilares, etc.
Resumo:
Na mesma proporção que fontes de água potável são reduzidas, a competição por elas tem aumentado, conseqüência imediata da expansão de áreas urbanas e de novas demandas agro-industriais. Os conflitos gerados por esta competição tendem a comprometer o desenvolvimento sustentável e o progresso de uma forma geral, uma vez que resultam em perda de eficácia para vultuosos investimentos públicos e privados e em prejuízos para os usuários menos estruturados. Considerando os fatos acima, o objeto deste trabalho é o estabelecimento de cenários de alocação das disponibilidades hídricas entre usuários de água da bacia do Sapucaí-Mirim/Grande, visando determinar a convivência harmoniosa das várias finalidades de uso provenientes do mesmo recurso hídrico. Tal meta poderá ser alcançada através da análise dos indicadores de desempenho - confiabilidade, vulnerabilidade e resiliência - do sistema os quais serão obtidos com o auxílio do modelo de simulação IRAS (Interactive River Aquifer Simulation).
Resumo:
A eficiência e a racionalidade energética da iluminação pública têm relevante importância no sistema elétrico, porque contribui para diminuir a necessidade de investimentos na construção de novas fontes geradoras de energia elétrica e nos desperdícios energéticos. Apresenta-se como objetivo deste trabalho de pesquisa o desenvolvimento e aplicação do IDE (índice de desempenho energético), fundamentado no sistema de inferência nebulosa e indicadores de eficiência e racionalidade de uso da energia elétrica. A opção em utilizar a inferência nebulosa deve-se aos fatos de sua capacidade de reproduzir parte do raciocínio humano, e estabelecer relação entre a diversidade de indicadores envolvidos. Para a consecução do sistema de inferência nebulosa, foram definidas como variáveis de entrada: os indicadores de eficiência e racionalidade; o método de inferência foi baseado em regras produzidas por especialista em iluminação pública, e como saída um número real que caracteriza o IDE. Os indicadores de eficiência e racionalidade são divididos em duas classes: globais e específicos. Os indicadores globais são: FP (fator de potência), FC (fator de carga) e FD (fator de demanda). Os indicadores específicos são: FU (fator de utilização), ICA (consumo de energia por área iluminada), IE (intensidade energética) e IL (intensidade de iluminação natural). Para a aplicação deste trabalho, foi selecionada e caracterizada a iluminação pública da Cidade Universitária \"Armando de Salles Oliveira\" da Universidade de São Paulo. Sendo assim, o gestor do sistema de iluminação, a partir do índice desenvolvido neste trabalho, dispõe de condições para avaliar o uso da energia elétrica e, desta forma, elaborar e simular estratégias com o objetivo de economizá-la.
Resumo:
Fundamental a vida e ao desenvolvimento de qualquer sociedade, a água é um bem precioso e limitado que está se esgotando e sendo motivo de preocupação mundial. O desperdício, a distribuição desigual, o aumento do consumo e a degradação da qualidade da água são motivos que a tornaram escassa e trouxeram à tona a importância do planejamento e gerenciamento dos recursos hídricos. Frente a esta situação, este trabalho buscou avaliar a disponibilidade hídrica quantitativa e qualitativa da bacia hidrográfica do rio Sapucaí-Mirim, SP. Através da aplicação do simulador hidrológico MIKE BASIN, foi analisado o desempenho do sistema de recursos hídricos, o conflito existente entre os usos múltiplos e a concentração dos parâmetros OD e DBO nas águas do rio que recebe efluentes domésticos, muitos deles sem nenhum tratamento. Apesar da quantidade de água ser suficiente para atender às demandas, o estudo mostra que a geração de energia elétrica está comprometida e a água está se esgotando qualitativamente, evidenciando a necessidade e urgência de se implantar estações de tratamento de esgoto.
Resumo:
Neste projeto foi desenvolvido um método computacional para verificação da melhor combinação tela intensificadora - filme para exames mamográficos através do estudo de suas características sensitométricas. O software, desenvolvido em ambiente Delphi para windows, apresenta na tela do microcomputador a imagem a ser obtida para cada tipo de combinação tela intensificadora - filme, utilizando imagens de \"Phantoms\" e de mamas reais. Em razão da ampla quantidade de fatores que influenciam a imagem mamográfica final, tais como magnificação, característica dos filmes e telas intensificadoras e condições da processadora, o método proposto pode proporcionar uma ampla avaliação da qualidade dos sistemas de imagem mamográfica de uma forma simples, rápida e automática, através de procedimentos de simulação computacional. A simulação investigou a influência que um determinado sistema de registro exerce sobre a qualidade da imagem, possibilitando conhecer previamente a imagem final a ser obtida com diferentes equipamentos e sistemas de registro. Dentre os sistemas investigados, três filmes (Kodak Min R 2000, Fuji UM MA-HC e Fuji ADM) e duas telas intensificadoras (Kodak Min R 2000 e Fuji AD Mammo Fine), aquele que apresentou melhores resultados, com melhor qualidade de imagens e menor exposição à paciente foi o de tela Min R 2000 com filme Min R 2000 da Kodak.
Resumo:
A área da Tecnologia da Informação no Brasil sofre um problema latente com a falta de planejamento e atrasos constantes em projetos, determinando para os profissionais vinculados a ela um ambiente altamente desmotivador para a condução de seus trabalhos. Supõe-se que o que possa corroborar para tal problema seja a formação educacional deficitária dos indivíduos que atuam neste segmento, principalmente aqueles relacionados a cargos executivos e que estejam exercendo atividades de gestão. De acordo com teóricos como Edgard Morin (2004), em se tratando de educação fundamental, média ou superior os aspectos educacionais podem ser considerados deficitários justamente porque, ao segmentar o conhecimento, eles promovem uma alienação do indivíduo, eliminando sua capacidade criativa e reflexiva. Seria interessante, portanto, que ao avaliar a capacidade cognitiva de uma pessoa, a inteligência a ser mensurada não seja abordada através de um único espectro de conhecimento, mas através de muitos deles. A teoria das Inteligências Múltiplas, desenvolvida por Howard Gardner vem de encontro a essa necessidade, pois de acordo com o autor, a inteligência de um indivíduo deve ser mensurada através de uma gama de nove espectros: Linguística, Musical, Lógico-Matemática, Espacial, Corporal Cinestésica, Interpessoal, Intrapessoal, Naturalista e Existencial. Isto posto, este trabalho aborda uma metodologia computacional para classificação e descoberta de padrões em indivíduos, sejam esses alunos ou profissionais graduados, de uma determinada área. Além da metodologia, foi proposto um estudo de caso, considerando cursos superiores relacionados à área de Computação no Brasil.
Resumo:
Em geral, uma embarcação de planeio é projetada para atingir elevados níveis de velocidade. Esse atributo de desempenho está diretamente relacionado ao porte da embarcação e à potência instalada em sua planta propulsiva. Tradicionalmente, durante o projeto de uma embarcação, as análises de desempenho são realizadas através de resultados de embarcações já existentes, retirados de séries sistemáticas ou de embarcações já desenvolvidas pelo estaleiro e/ou projetista. Além disso, a determinação dos atributos de desempenho pode ser feita através de métodos empíricos e/ou estatísticos, onde a embarcação é representada através de seus parâmetros geométricos principais; ou a partir de testes em modelos em escala reduzida ou protótipos. No caso específico de embarcações de planeio, o custo dos testes em escala reduzida é muito elevado em relação ao custo de projeto. Isso faz com que a maioria dos projetistas não opte por ensaios experimentais das novas embarcações em desenvolvimento. Ao longo dos últimos anos, o método de Savitsky foi largamente utilizado para se realizar estimativas de potência instalada de uma embarcação de planeio. Esse método utiliza um conjunto de equações semi-empíricas para determinar os esforços atuantes na embarcação, a partir dos quais é possível determinar a posição de equilíbrio de operação e a força propulsora necessária para navegar em uma dada velocidade. O método de Savitsky é muito utilizado nas fases iniciais de projeto, onde a geometria do casco ainda não foi totalmente definida, pois utiliza apenas as características geométricas principais da embarcação para realização das estimativas de esforços. À medida que se avança nas etapas de projeto, aumenta o detalhamento necessário das estimativas de desempenho. Para a realização, por exemplo, do projeto estrutural é necessária uma estimativa do campo de pressão atuante no fundo do casco, o qual não pode ser determinado pelo método de Savitsky. O método computacional implementado nesta dissertação, tem o objetivo de determinar as características do escoamento e o campo de pressão atuante no casco de uma embarcação de planeio navegando em águas calmas. O escoamento é determinado através de um problema de valor de contorno, no qual a superfície molhada no casco é considerada um corpo esbelto. Devido ao uso da teoria de corpo esbelto o problema pode ser tratado, separadamente, em cada seção, onde as condições de contorno são forçadamente respeitadas através de uma distribuição de vórtices.
Resumo:
Computational Swarms (enxames computacionais), consistindo da integração de sensores e atuadores inteligentes no nosso mundo conectado, possibilitam uma extensão da info-esfera no mundo físico. Nós chamamos esta info-esfera extendida, cíber-física, de Swarm. Este trabalho propõe uma visão de Swarm onde dispositivos computacionais cooperam dinâmica e oportunisticamente, gerando redes orgânicas e heterogêneas. A tese apresenta uma arquitetura computacional do Plano de Controle do Sistema Operacional do Swarm, que é uma camada de software distribuída embarcada em todos os dispositivos que fazem parte do Swarm, responsável por gerenciar recursos, definindo atores, como descrever e utilizar serviços e recursos (como divulgá-los e descobrí-los, como realizar transações, adaptações de conteúdos e cooperação multiagentes). O projeto da arquitetura foi iniciado com uma revisão da caracterização do conceito de Swarm, revisitando a definição de termos e estabelecendo uma terminologia para ser utilizada. Requisitos e desafios foram identificados e uma visão operacional foi proposta. Esta visão operacional foi exercitada com casos de uso e os elementos arquiteturais foram extraídos dela e organizados em uma arquitetura. A arquitetura foi testada com os casos de uso, gerando revisões do sistema. Cada um dos elementos arquiteturais requereram revisões do estado da arte. Uma prova de conceito do Plano de Controle foi implementada e uma demonstração foi proposta e implementada. A demonstração selecionada foi o Smart Jukebox, que exercita os aspectos distribuídos e a dinamicidade do sistema proposto. Este trabalho apresenta a visão do Swarm computacional e apresenta uma plataforma aplicável na prática. A evolução desta arquitetura pode ser a base de uma rede global, heterogênea e orgânica de redes de dispositivos computacionais alavancando a integração de sistemas cíber-físicos na núvem permitindo a cooperação de sistemas escaláveis e flexíveis, interoperando para alcançar objetivos comuns.