1000 resultados para Algoritmos genéticos
Resumo:
A montagem de circuitos eletrónicos é um processo extremamente complexo, e como tal muito difícil de controlar. Ao longo do processo produtivo, é colocada solda no PCB (printed circuit board), seguidamente são colocados os componentes eletrónicos que serão depois soldados através de um sistema de convecção, sendo por fim inspecionados todos os componentes, com o intuito de detetar eventuais falhas no circuito. Esta inspeção é efetuada por uma máquina designada por AOI (automatic optical inspection), que através da captura de várias imagens do PCB, analisa cada uma, utilizando algoritmos de processamento de imagem como forma de verificar a presença, colocação e soldadura de todos os componentes. Um dos grandes problemas na classificação dos defeitos relaciona-se com a quantidade de defeitos mal classificados que passam para os processos seguintes, por análise errada por parte dos operadores. Assim, apenas com uma formação adequada, realizada continuamente, é possível garantir uma menor taxa de falhas por parte dos operadores e consequentemente um aumento na qualidade dos produtos. Através da implementação da metodologia Gage R&R para atributos, que é parte integrante da estratégia “six sigma” foi possível analisar a aptidão dos operadores, com base na repetição aleatória de várias imagens. Foi desenvolvido um software que implementa esta metodologia na formação dos operadores das máquinas AOI, de forma a verificar a sua aptidão, tendo como objetivo a melhoria do seu desempenho futuro, através da medição e quantificação das dificuldades de cada pessoa. Com esta nova sistemática foi mais fácil entender a necessidade de formação de cada operador, pois com a constante evolução dos componentes eletrónicos e com o surgimento de novos componentes, estão implícitas novas dificuldades para os operadores neste tipo de tarefa. Foi também possível reduzir o número de defeitos mal classificados de forma significativa, através da aposta na formação com o auxílio do software desenvolvido.
Resumo:
Este trabalho é uma atualização do artigo publicado pelo autor na RAE em 1974 e tem por finalidade: a) definir o Problema da Decisão Qualitativa (PDQ); b) mostrar como certos tipos de problemas lógicos podem ser formulados como PDQs; c) apresentar um método de resolução do PDQ, o qual utiliza resolução de equações booleanas; d) apresentar um processo original de resolução destas equações, o Algoritmo RQ, facilmente programável em computadores. Os resultados apresentados são produto de trabalhos desenvolvidos no antigo Departamento de Engenharia de Eletricidade da EPUSP, os quais deram origem a diversas publicações, entre elas 1, 4, 5, 6, 7, 8, 9, 10, 11,20,23, 24, 25, 28,29 (veja bibliografia no final do artigo). Partes deste artigo são adaptações de trechos de livro do mesmo autor(11), onde se encontram os fundamentos teóricos, aplicações, sugestões para novos desenvolvimentos e listagens para microcomputador do SDB/3, um sistema de auxílio à tomada de decisões que resolve o PDQ.
Resumo:
RESUMO Este estudo tem por propósito comparar conceitual e metodologicamente cinco classificadores para a estratificação socioeconômica da sociedade brasileira e mensurar os trade-offs de erros de classificação entre eles. Com base nos algoritmos de classificação de cada critério, classificamos os 55.970 domicílios que compõem a amostra representativa da pesquisa de orçamentos familiares (POF), realizada pelo Instituto Brasileiro de Geografia e Estatística (IBGE). Os resultados obtidos permitem afirmar que o classificador de máxima verossimilhança foi o que apresentou a melhor performance em explicar o nível de consumo das famílias brasileiras por estrato socioeconômico, seguido do classificador bayesiano adaptável, da Associação Brasileira de Empresas de Pesquisa (ABEP) simplificado, do ABEP antigo e da Secretaria de Assuntos Estratégicos (SAE). Os três primeiros classificadores estão sustentados no conceito da renda permanente/riqueza do domicílio, incorporando os dois primeiros uma importante inovação: classificar um domicílio levando em conta sua localização geográfica e a composição familiar. Esses novos classificadores possibilitam aos pesquisadores e gestores de marketing segmentar e estudar mercados baseados em critério válido, fidedigno e confiável de estratificação socioeconômica.
Resumo:
A cafeína é usada em formulações cosméticas tópicas para tratamento da Paniculopatia Esclero Edematosa (PEE), em concentrações de 1-2%, embora existam no mercado formulações com 5%. Estudos in vitro têm demonstrado que a cafeína estimula a lipólise e a redução de tamanho dos adipócitos, através do aumento dos níveis de AMPc. As características físico-químicas da cafeína dificultam a transposição da barreira cutânea, nomeadamente do estrato córneo, etapa limitante da penetração cutânea. Existem vários factores envolvidos na fisiopatologia da PEE nomeadamente genéticos, hormonais e estilos de vida, que parecem actuar em quatro unidades funcionais do tecido adiposo: unidade interstício-matricial, unidade microcirculatória, unidade neuro-vegetativa e unidade energética. Os formuladores privilegiam o desenvolvimento de formulações cosméticas tópicas, que incorporem ingredientes activos com acção sobre a estimulação do fluxo microvascular e linfático por um lado e, por outro lado, que actuem directa ou indirectamente nos mecanismos reguladores da lipólise. Desenvolvem-se formulações cosméticas tópicas, constituídas por substâncias que promovam a penetração cutâneo, e utilizam-se veículos que depositem de uma forma direccionada, e em maior quantidade os ingredientes activos no local de acção.
Resumo:
O método da comparação dos índices de neutralização (SMIT & WILTERDINK, 1966) foi utilizado na identificação sorológica intratípica de 49 poliovírus, pertencentes aos três tipos imunológicos e isolados de casos clínicos com e sem contato conhecido com a vacina oral de Sabin. O método foi também comparado com o método de Wecker e com o marcador RCT40 no estudo da identificação intratípica das estirpes do tipo 3. Os soros imunes necessários às reações de neutralização foram preparados em cobaias com as estirpes vacinais LSc2ab, P712Ch2ab e Leon 12a1b. As estirpes - dos tipos 1 e 3 - isoladas dos indivíduos sem contato conhecido com a vacina oral, foram todas identificadas como heterólogas às respectivas estirpes vacinais e as provenientes dos indivíduos com contato (recém-vacinados e contatos) foram identificadas como isólogas às respectivas estirpes vacinais, exceto duas, das quais uma (do tipo 1) foi identificada como intermediária e a outra (do tipo 3) como heteróloga. Não foi possível interpretar convenientemente os resultados das provas de identificação das estirpes do tipo 2, porque o índice de neutralização do protótipo Lansing, ao contrário dos índices das estirpes de referência dos tipos 1 e 3, não deu resultados constantes em provas consecutivas na presença do sôro anti-P712Ch2ab. No estudo da identificação intratípica dos poliovírus do tipo 3, o método da comparação dos índices de neutralização forneceu resultados plenamente concordantes com os obtidos pelo método de Wecker, com isto evidenciando ser um método igualmente satisfatório e, devido à relativa simplicidade de sua técnica, melhor indicado para inquéritos epidemiológicos, quando se examina a procedência de numerosas estirpes. Os resultados obtidos com o marcador RCT40 mostraram a importância de utilizar provas de diferenciação sorológica intratípica na identificação dos vírus da poliomielite em áreas de vacinação, devido à instabilidade do caráter RCT40 das estirpes do tipo 3.
Resumo:
É descrita a descoberta, por Manoel de Abreu, da roentgenfotografia e sua aplicação maciça na população brasileira onde muitas vezes, por exigência legal, crianças, jovens, mulheres grávidas eram submetidos a exames repetidos e, freqüentemente, desnecessários. Com as explosões atômicas de Hiroshima e Nagasaki e o conhecimento de que mesmo doses mínimas de radiações podem condicionar sérios riscos somáticos e genéticos, a abreugrafia sistemática passou a constituir séria preocupação para os sanitaristas, uma vez que as vantagens, que são poucas, oferecidas por este método diagnóstico são contrabalançadas pelo seu alto custo e pelo risco que oferece às populações. Com, base na literatura e em particular em declaração especifica da Organização Mundial de Saúde, é proposta a abolição da abreugrafia sistemática, com a eliminação, na legislação brasileira, dos dispositivos que a tornam obrigatória em numerosas eventualidades.
Resumo:
Foram estudadas de modo comparativo a macro e a microtécnica em provas de identificação sorológica intratípica de 28 estirpes de poliovírus dos tipos 1 e 3, segundo o método da "comparação dos índices de neutralização". Os resultados alcançados mostraram uma correlação elevada entre os índices de neutralização obtidos com ambas as técnicas empregadas - 0,931 e 0,971 após incubação de três e cinco dias, respectivamente - e correspondência total na identificação das estirpes examinadas. Conclui-se que a microtécnica pode ser utilizada em substituição da macrotécnica tradicional na identificação intratípica de poliovírus dos tipos 1 e 3, com, a vantagem da economia de meios e reagentes, e até mesmo com sensível redução de esforços humanos e tempo de execução das provas.
Resumo:
Utilizando um esquema de seleção individual em progenies autofecundadas, foram obtidas, após quatro gerações, populações de Biomphalaria tenagophila e de Biomphalaria glabrata, altamente suscetíveis às linhagens do Schistosoma mansoni do Vale do Rio Paraíba do Sul, SP e de Belo Horizonte, MG (Brasil), respectivamente. Os rápidos ganhos genéticos obtidos confirmam ser a suscetibilidade de moluscos à infecção esquistossomótica, uma característica de alta herdabilidade, sendo aparentemente condicionada por um pequeno número de genes.
Resumo:
A herdabilidade da suscetibilidade do diabetes juvenil em uma população brasileira é estimada baseando-se em informações da prevalência da doença na população em geral e entre os pais de afetados. A estimativa de 90%, então obtida, sugere uma alta participação de fatores genéticos na determinação da moléstia. Exemplifica-se a aplicação desse resultado no cálculo de risco de recorrência do diabetes em familiares de indivíduos afetados.
Resumo:
A obesidade é um dos problemas de saúde mais graves que afecta crianças e adolescentes a nível mundial. As evidências sugerem que o problema está a agravar-se rapidamente. O aumento da prevalência de obesidade infantil pode fazer com que a próxima geração apresente indicadores de obesidade no adulto superiores aos indicadores actuais. Pelo facto de a obesidade estar intimamente associada a diferentes patologias crónicas faz com que estejamos perante um enorme desafio para o sistema de cuidados de saúde. A definição de obesidade em crianças é dificultada pelo facto de ser um processo caro e pouco prático. O índice de massa corporal (IMC) é utilizado como indicador de obesidade no adulto. Nas crianças e adolescentes, é consensual a utilização dos percentis obtidos estatisticamente através de uma população de referência. O tratamento recomendado para que crianças e adolescentes com excesso de peso consigam atingir um peso mais saudável utiliza quatro estratégias comportamentais primárias: redução do aporte energético, aumento do gasto energético, participação activa dos pais e educadores no processo de mudança e ajuda do ambiente familiar de suporte. A prevenção do excesso de peso é critica para um tratamento com sucesso devido aos resultados a longo prazo. Factores genéticos, ambientais ou a combinação de factores de risco que predispõem a criança ou adolescente para a obesidade podem e devem ser identificados. As famílias devem ser educadas antecipadamente para reconhecer o impacto que têm nos hábitos alimentares e de actividade física na vida das crianças e adolescentes. Práticas alimentares que incentivem a moderação em vez do consumo excessivo devem ser promovidas, enfatizando escolhas alimentares saudáveis em vez de padrões alimentares restritivos. Actividade física regular deve ser promovida de forma prioritária no ambiente familiar, escolar e comunitário. O caminho ideal para a prevenção é aliar a intervenção dietética com a actividade física. As crianças e adolescentes devem ser ajudados precocemente a desenvolver hábitos alimentares e de actividade física, porque as intervenções tornam-se mais efectivas quando os hábitos comportamentais se estão a formar. Neste artigo são apresentadas a epidemiologia, a avaliação, o tratamento e a prevenção associado a este fenómeno de saúde pública.
Resumo:
Objetivou-se comparar o padrão de mortalidade dos imigrantes japoneses (isseis) e de seus descendentes (nisseis/sanseis), residentes no Município de São Paulo, com o do Japão, local de origem, e o do Município de São Paulo, local de destino destes migrantes, em 1980. Os principais grupos de causas de morte foram basicamente semelhantes para estas populações, sendo que os maiores coeficientes padronizados foram os de São Paulo. A única exceção foi o risco de morrer por neoplasmas, maior no Japão. Os isseis (ambos os sexos) apresentaram riscos com valores intermediários para as Doenças das Glândulas Endocrinas e do Metabolismo e para as Doenças do Aparelho Respiratório; para as isseis, o risco de morrer por Doenças do Aparelho Circulatório também foi intermediário. Nos demais grupos de causa, os isseis apresentaram os menores riscos de morrer. Os riscos de morrer por Câncer do Estômago, Mama e Próstata, Diabetes Mellitus, Doenças Isquêmicas do Coração, Doenças Cerebrovasculares, Homicídios e Suicídios permitiram concluir que os isseis estão paulatinamente afastando-se do padrão de morte do Japão e tendendo ao de São Paulo. Surgem hipóteses de que estejam ocorrendo mudanças socio-culturais nos migrantes e haja predominância de atuação de fatores de risco ambientais e não de genéticos, na incidência e na mortalidade desses agravos à saúde.
Resumo:
Os edifícios estão a ser construídos com um número crescente de sistemas de automação e controlo não integrados entre si. Esta falta de integração resulta num caos tecnológico, o que cria dificuldades nas três fases da vida de um edifício, a fase de estudo, a de implementação e a de exploração. O desenvolvimento de Building Automation System (BAS) tem como objectivo assegurar condições de conforto, segurança e economia de energia. Em edifícios de grandes dimensões a energia pode representar uma percentagem significativa da factura energética anual. Um BAS integrado deverá contribuir para uma diminuição significativa dos custos de desenvolvimento, instalação e gestão do edifício, o que pode também contribuir para a redução de CO2. O objectivo da arquitectura proposta é contribuir para uma estratégia de integração que permita a gestão integrada dos diversos subsistemas do edifício (e.g. aquecimento, ventilação e ar condicionado (AVAC), iluminação, segurança, etc.). Para realizar este controlo integrado é necessário estabelecer uma estratégia de cooperação entre os subsistemas envolvidos. Um dos desafios para desenvolver um BAS com estas características consistirá em estabelecer a interoperabilidade entre os subsistemas como um dos principais objectivos a alcançar, dado que o fornecimento dos referidos subsistemas assenta normalmente numa filosofia multi-fornecedor, sendo desenvolvidos usando tecnologias heterogéneas. Desta forma, o presente trabalho consistiu no desenvolvimento de uma plataforma que se designou por Building Intelligence Open System (BIOS). Na implementação desta plataforma adoptou-se uma arquitectura orientada a serviços ou Service Oriented Architecture (SOA) constituída por quatro elementos fundamentais: um bus cooperativo, denominado BIOSbus, implementado usando Jini e JavaSpaces, onde todos os serviços serão ligados, disponibilizando um mecanismo de descoberta e um mecanismo que notificada as entidades interessadas sobre alterações do estado de determinado componente; serviços de comunicação que asseguram a abstracção do Hardware utilizado da automatização das diversas funcionalidades do edifício; serviços de abstracção de subsistemas no acesso ao bus; clientes, este podem ser nomeadamente uma interface gráfica onde é possível fazer a gestão integrada do edifício, cliente de coordenação que oferece a interoperabilidade entre subsistemas e os serviços de gestão energética que possibilita a activação de algoritmos de gestão racional de energia eléctrica.
Resumo:
As soluções de recuperação de informação actuais, que classificam documentos de acordo com a sua relevância, baseiam-se na sua grande maioria em algoritmos estatísticos não recorrendo a conhecimento semântico sobre o domínio pesquisado. Esta abordagem tem sido adoptada em grande escala e com bons resultados, em grande medida devido à baixa complexidade que apresenta e à facilidade e universalidade com que pode ser aplicada. Esta tese explora uma alternativa à pesquisa de informaçã baseada apenas na contagem de termos, tentando ao mesmo tempo manter a complexidade em níveis semelhantes. O trabalho desenvolvido baseia-se na utilização de Lógica de Descrição para representar conhecimento sobre um domínio e inferir pesquisas alternativas, que possam conduzir a um ganho na precisão dos resultados. Avaliam-se os ganhos obtidos por esta abordagem, nomeadamente na obtenção de resultados baseados em semelhança semântica e não puramente sintáctica. Esta abordagem permite obter resultados que não seriam considerados numa pesquisa puramente sintáctica.
Resumo:
Este trabalho tem como objectivo a criação de modelos, resultantes da aplicação de algoritmos e técnicas de mineração de dados, que possam servir de suporte a um sistema de apoio à decisão útil a investidores do mercado de capitais. Os mercados de capitais, neste caso particular a Bolsa de Valores, são sistemas que gera diariamente grandes volumes de informação, cuja análise é complexa e não trivial para um investidor não profissional. Existem muitas variáveis que influenciam a decisão a tomar sobre a carteira de acções (vender, manter, comprar). Estas decisões têm como objectivo a maximização do lucro. Assim, um sistema que auxilie os investidores na tarefa de análise será considerado uma mais-valia. As decisões de um profissional são normalmente baseadas em dois tipos de análise: Fundamental e Técnica. A Análise Fundamental foca-se nos indicadores da “saúde financeira” da empresa, tendo como base a informação disponibilizada pela mesma. Por outro lado , a Análise Técnica, que será o foco deste trabalho, assenta na observação de indicadores estatísticos construídos com base no comportamento passado da acção. O recurso a estas análises permite aos investidores obterem alguma informação sobre a tendência da acção (subida ou descida). As análises apresentadas requerem um bom conhecimento do domínio do problema e tempo, o que as torna pouco acessíveis, sobretudo para os pequenos investidores. Com o intuito de democratizar o acesso a este tipo de investimentos, este trabalho, recorre a algoritmos de mineração de dados, tais como, árvores de classificação e redes neuronais que possam servir de base à construção de um modelo de suporte a obstáculos que podem impedir o investidor comum de entrar na Bolsa, designadamente o tempo gasto na análise e a complexidade da mesma, entre outros. Para a criação de modelos capazes de responder às expectativas, são realizados diversos ensaios recorrendo a vários algoritmos e conjuntos de dados, na busca do que melhor se adequa ao problema. Contudo é de ressalvar que a decisão de investimento estará sempre do lado do investidor, uma vez que o modelo deve permitir unicamente alimentar um sistema de apoio.
Resumo:
A motivação para este trabalho vem da necessidade que o autor tem em poder registar as notas tocadas na guitarra durante o processo de improviso. Quando o músico está a improvisar na guitarra, muitas vezes não se recorda das notas tocadas no momento, este trabalho trata o desenvolvimento de uma aplicação para guitarristas, que permita registar as notas tocadas na guitarra eléctrica ou clássica. O sinal é adquirido a partir da guitarra e processado com requisitos de tempo real na captura do sinal. As notas produzidas pela guitarra eléctrica, ligada ao computador, são representadas no formato de tablatura e/ou partitura. Para este efeito a aplicação capta o sinal proveniente da guitarra eléctrica a partir da placa de som do computador e utiliza algoritmos de detecção de frequência e algoritmos de estimação de duração de cada sinal para construir o registo das notas tocadas. A aplicação é desenvolvida numa perspectiva multi-plataforma, podendo ser executada em diferentes sistemas operativos Windows e Linux, usando ferramentas e bibliotecas de domínio público. Os resultados obtidos mostram a possibilidade de afinar a guitarra com valores de erro na ordem de 2 Hz em relação às frequências de afinação standard. A escrita da tablatura apresenta resultados satisfatórios, mas que podem ser melhorados. Para tal será necessário melhorar a implementação de técnicas de processamento do sinal bem como a comunicação entre processos para resolver os problemas encontrados nos testes efectuados.