1000 resultados para Algoritmos computacionais
Resumo:
Um algoritmo numérico foi criado para apresentar a solução da conversão termoquímica de um combustível sólido. O mesmo foi criado de forma a ser flexível e dependente do mecanismo de reação a ser representado. Para tanto, um sistema das equações características desse tipo de problema foi resolvido através de um método iterativo unido a matemática simbólica. Em função de não linearidades nas equações e por se tratar de pequenas partículas, será aplicado o método de Newton para reduzir o sistema de equações diferenciais parciais (EDP’s) para um sistema de equações diferenciais ordinárias (EDO’s). Tal processo redução é baseado na união desse método iterativo à diferenciação numérica, pois consegue incorporar nas EDO’s resultantes funções analíticas. O modelo reduzido será solucionado numericamente usando-se a técnica do gradiente bi-conjugado (BCG). Tal modelo promete ter taxa de convergência alta, se utilizando de um número baixo de iterações, além de apresentar alta velocidade na apresentação das soluções do novo sistema linear gerado. Além disso, o algoritmo se mostra independente do tamanho da malha constituidora. Para a validação, a massa normalizada será calculada e comparada com valores experimentais de termogravimetria encontrados na literatura, , e um teste com um mecanismo simplificado de reação será realizado.
Resumo:
Neste trabalho, analisamos aspectos relacionados a como a tecnologia computacional é utilizada no Atendimento Educacional Especializado (AEE) e como se deu a formação de professores para utilizar esses recursos. Para tanto, delimitamos os seguintes objetivos específicos: investigar a utilização da tecnologia assistiva (TA) computacional no âmbito das salas de recursos multifuncionais (SRM); problematizar as tensões, dificuldades e possibilidades relacionadas à TA com ênfase na tecnologia computacional para o AEE; analisar a formação do professor de educação especial para o AEE tendo como recurso a TA com ênfase na tecnologia computacional, visando à mediação dos processos de aprendizagem. O aporte teórico deste trabalho foi a abordagem histórico-cultural, tomando por referência os estudos de Vigotski e seus colaboradores. Trata-se de uma pesquisa qualitativa que fez uso de diferentes instrumentos metodológicos como, os grupos focais, o questionário online e a entrevista semiestruturada. Para desenvolvê-lo, realizamos a coleta de dados em diferentes contextos, começando pelos grupos focais da pesquisa inaugural do Oneesp, que serviram como dispositivo para esta pesquisa, seguida da aplicação de um questionário aos professores participantes da pesquisa-formação desenvolvida como um desdobramento no estado do Espírito Santo da pesquisa inaugural do Oneesp pelos integrantes do Oeeesp e da aplicação in loco de entrevistas semiestruturadas com professores de educação especial, de uma SRM do Tipo II. Foram oitenta e nove professores participantes na pesquisa do Oneesp, trinta professores na pesquisa-formação do Oeeesp e dois professores para aplicação da entrevista semiestruturada in loco, respectivamente. Esses dois professores participaram tanto da pesquisa do Oneesp como da pesquisa do Oeeesp. Analisamos esses três momentos, dos quais emergiram os apontamentos que nos proporcionaram pensar, com base nas narrativas orais e escritas dos professores: sua formação para uso da TA computacional; seu entendimento sobre sua formação para este fim; seus anseios por uma formação mais direcionada; a forma como utilizam a tecnologia na sala de recursos; seus entendimentos sobre as dificuldades e possibilidades relacionadas a TA com ênfase na tecnologia computacional para o AEE. Após essas análises, concluímos que poucos professores que atuam nas SRM tiveram uma formação que possibilitasse a aplicação das tecnologias computacionais em sua mediação pedagógica, aliando teoria e prática, com momentos de formação que privilegiassem os momentos presenciais e em laboratórios, onde possam interagir com os computadores e suas ferramentas simbólicas. Sem essa familiaridade com os recursos computacionais, os professores acabam sentindo-se inseguros para utilizá-los, deixando de potencializar, pela via desses recursos, os processos de ensinoaprendizagem do aluno com deficiência. Faz-se necessário um investimento nesse tipo de formação e, mais do que isso, que se viabilize para os professores que atuam ou que pretendem atuar nas SRM. A partir de uma formação apropriada é possível fazer com que os professores utilizem os recursos computacionais como mediadores dos processos de ensino-aprendizagem de seus alunos.
Resumo:
As infecções cervicais profundas são afecções graves que acometem os diversos espaços do pescoço. A mais temível complicação é a mediastinite necrosante descendente, que necessita de diagnóstico precoce e tratamento, por vezes, agressivo. OBJETIVOS: Analisar os 80 casos tratados de infecção cervical profunda e propor uma diretriz de conduta. MATERIAL E MÉTODO: Os autores realizaram um estudo retrospectivo de 80 casos de infecções cervicais profundas tratados no período de junho de 1997 a junho de 2003. RESULTADOS: As causas odontogênicas e amigdalianas foram as mais comumente encontradas. Os espaços mais acometidos foram o submandibular e parafaríngeo. Os principais microorganismos envolvidos foram o Staphylococcus aureus e o Streptococcus sp. CONCLUSÃO: O manejo da via aérea difícil nas infecções cervicais profundas deve ter cuidado especial, quando da indicação cirúrgica, de preferência com intubação sob visão endoscópica e sem uso de miorrelaxantes. Drenagem cirúrgica ampla permanece o tratamento padrão das infecções cervicais profundas. A tomografia computadorizada é o exame de escolha para o diagnóstico das infecções cervicais profundas. Essas infecções apresentam alta morbimortalidade, quando associada ao choque séptico e à mediastinite. Nossa mortalidade foi de 11,2% e dos cinco doentes com mediastinite apenas um sobreviveu.
Resumo:
O uso de programas computacionais no setor agrícola permite atingir objetivos específicos na área. Dentre esses, um dos mais complexos é a seleção adequada de máquinas e implementos agrícolas visando à otimização de operações agrícolas, devido, principalmente, à grande variedade de equipamentos existentes no mercado e a gama de tarefas e situações de trabalho que estas são submetidas no campo. O objetivo deste trabalho foi desenvolver um programa computacional para calcular a potência requerida de máquinas e implementos agrícolas normalmente utilizados na condução de operações de campo, desde o preparo do solo até as operações de implantação de culturas. Desenvolvido em linguagem PHP, o programa computacional baseia-se na norma ASAE D497.4 - Agricultural Machinery Management Data como referência para desenvolvimento de cálculos. A partir do programa desenvolvido, tornou-se possível a execução de tarefas para cálculos de avaliação da demanda de potência de máquinas e implementos agrícolas de forma simplificada pela internet.
Resumo:
Inúmeros experimentos em ciências agrárias apresentam variáveis que podem dar origem a problemas de multicolinearidade. Em se tratando da aplicabilidade de modelos de regressão, o problema da multicolinearidade tem como principal consequência o inflacionamento dos erros padrão e, com isso, o valor da estatística t-student é reduzido de tal forma que interfere nos resultados inferenciais. Várias medidas são propostas, na literatura, para resolver o problema de multicolinearidade. Entretanto, o desempenho dessas medidas está sujeito ao grau de multicolinearidade que as variáveis poderão apresentar, bem como ao tamanho amostral. Frente a este problema, este trabalho tem por objetivo avaliar alguns estimadores ridge, utilizando simulação Monte Carlo, bem como, apresentar a aplicação desses estimadores em um experimento, com dados reais, na área de entomologia. Mediante esta aplicação, os resultados expressivos alcançados foram obtidos em função da eficiência dos estimadores ridge avaliados, em relação ao estimador de mínimos quadrados. Em se tratando dos resultados computacionais, concluiu-se que estimadores ridge avaliados são recomendáveis, em experimentos que considerem as variáveis com diferentes graus de multicolinearidade, para amostras maiores do que n=50.
Resumo:
A montagem de circuitos eletrónicos é um processo extremamente complexo, e como tal muito difícil de controlar. Ao longo do processo produtivo, é colocada solda no PCB (printed circuit board), seguidamente são colocados os componentes eletrónicos que serão depois soldados através de um sistema de convecção, sendo por fim inspecionados todos os componentes, com o intuito de detetar eventuais falhas no circuito. Esta inspeção é efetuada por uma máquina designada por AOI (automatic optical inspection), que através da captura de várias imagens do PCB, analisa cada uma, utilizando algoritmos de processamento de imagem como forma de verificar a presença, colocação e soldadura de todos os componentes. Um dos grandes problemas na classificação dos defeitos relaciona-se com a quantidade de defeitos mal classificados que passam para os processos seguintes, por análise errada por parte dos operadores. Assim, apenas com uma formação adequada, realizada continuamente, é possível garantir uma menor taxa de falhas por parte dos operadores e consequentemente um aumento na qualidade dos produtos. Através da implementação da metodologia Gage R&R para atributos, que é parte integrante da estratégia “six sigma” foi possível analisar a aptidão dos operadores, com base na repetição aleatória de várias imagens. Foi desenvolvido um software que implementa esta metodologia na formação dos operadores das máquinas AOI, de forma a verificar a sua aptidão, tendo como objetivo a melhoria do seu desempenho futuro, através da medição e quantificação das dificuldades de cada pessoa. Com esta nova sistemática foi mais fácil entender a necessidade de formação de cada operador, pois com a constante evolução dos componentes eletrónicos e com o surgimento de novos componentes, estão implícitas novas dificuldades para os operadores neste tipo de tarefa. Foi também possível reduzir o número de defeitos mal classificados de forma significativa, através da aposta na formação com o auxílio do software desenvolvido.
Resumo:
Este trabalho é uma atualização do artigo publicado pelo autor na RAE em 1974 e tem por finalidade: a) definir o Problema da Decisão Qualitativa (PDQ); b) mostrar como certos tipos de problemas lógicos podem ser formulados como PDQs; c) apresentar um método de resolução do PDQ, o qual utiliza resolução de equações booleanas; d) apresentar um processo original de resolução destas equações, o Algoritmo RQ, facilmente programável em computadores. Os resultados apresentados são produto de trabalhos desenvolvidos no antigo Departamento de Engenharia de Eletricidade da EPUSP, os quais deram origem a diversas publicações, entre elas 1, 4, 5, 6, 7, 8, 9, 10, 11,20,23, 24, 25, 28,29 (veja bibliografia no final do artigo). Partes deste artigo são adaptações de trechos de livro do mesmo autor(11), onde se encontram os fundamentos teóricos, aplicações, sugestões para novos desenvolvimentos e listagens para microcomputador do SDB/3, um sistema de auxílio à tomada de decisões que resolve o PDQ.
Resumo:
RESUMO Este estudo tem por propósito comparar conceitual e metodologicamente cinco classificadores para a estratificação socioeconômica da sociedade brasileira e mensurar os trade-offs de erros de classificação entre eles. Com base nos algoritmos de classificação de cada critério, classificamos os 55.970 domicílios que compõem a amostra representativa da pesquisa de orçamentos familiares (POF), realizada pelo Instituto Brasileiro de Geografia e Estatística (IBGE). Os resultados obtidos permitem afirmar que o classificador de máxima verossimilhança foi o que apresentou a melhor performance em explicar o nível de consumo das famílias brasileiras por estrato socioeconômico, seguido do classificador bayesiano adaptável, da Associação Brasileira de Empresas de Pesquisa (ABEP) simplificado, do ABEP antigo e da Secretaria de Assuntos Estratégicos (SAE). Os três primeiros classificadores estão sustentados no conceito da renda permanente/riqueza do domicílio, incorporando os dois primeiros uma importante inovação: classificar um domicílio levando em conta sua localização geográfica e a composição familiar. Esses novos classificadores possibilitam aos pesquisadores e gestores de marketing segmentar e estudar mercados baseados em critério válido, fidedigno e confiável de estratificação socioeconômica.
Resumo:
Utilizando a base de dados dos trabalhos publicados nos Enanpads realizados em 2002-04, este artigo focaliza a área de administração da informação para realizar um estudo exploratório sobre a formação de padrões nas estruturas de disseminação do conhecimento acadêmico no Brasil, apoiado nos conceitos oriundos da análise das redes sociais e conjugados com a base proveniente da teoria dos grafos e em recursos computacionais. Procurou-se mapear os fluxos de informações que possibilitam as trocas de conhecimento através das ligações existentes no meio acadêmico. Os resultados indicam a necessidade de ampliar e estreitar os laços entre os autores, notadamente os que possuem algum grau de centralidade local, no intuito de obter o fortalecimento das instituições de ensino, de forma a quebrar as resistências à produção conjunta entre elas, em detrimento do padrão de reprodução endógena detectado.
Resumo:
Os edifícios estão a ser construídos com um número crescente de sistemas de automação e controlo não integrados entre si. Esta falta de integração resulta num caos tecnológico, o que cria dificuldades nas três fases da vida de um edifício, a fase de estudo, a de implementação e a de exploração. O desenvolvimento de Building Automation System (BAS) tem como objectivo assegurar condições de conforto, segurança e economia de energia. Em edifícios de grandes dimensões a energia pode representar uma percentagem significativa da factura energética anual. Um BAS integrado deverá contribuir para uma diminuição significativa dos custos de desenvolvimento, instalação e gestão do edifício, o que pode também contribuir para a redução de CO2. O objectivo da arquitectura proposta é contribuir para uma estratégia de integração que permita a gestão integrada dos diversos subsistemas do edifício (e.g. aquecimento, ventilação e ar condicionado (AVAC), iluminação, segurança, etc.). Para realizar este controlo integrado é necessário estabelecer uma estratégia de cooperação entre os subsistemas envolvidos. Um dos desafios para desenvolver um BAS com estas características consistirá em estabelecer a interoperabilidade entre os subsistemas como um dos principais objectivos a alcançar, dado que o fornecimento dos referidos subsistemas assenta normalmente numa filosofia multi-fornecedor, sendo desenvolvidos usando tecnologias heterogéneas. Desta forma, o presente trabalho consistiu no desenvolvimento de uma plataforma que se designou por Building Intelligence Open System (BIOS). Na implementação desta plataforma adoptou-se uma arquitectura orientada a serviços ou Service Oriented Architecture (SOA) constituída por quatro elementos fundamentais: um bus cooperativo, denominado BIOSbus, implementado usando Jini e JavaSpaces, onde todos os serviços serão ligados, disponibilizando um mecanismo de descoberta e um mecanismo que notificada as entidades interessadas sobre alterações do estado de determinado componente; serviços de comunicação que asseguram a abstracção do Hardware utilizado da automatização das diversas funcionalidades do edifício; serviços de abstracção de subsistemas no acesso ao bus; clientes, este podem ser nomeadamente uma interface gráfica onde é possível fazer a gestão integrada do edifício, cliente de coordenação que oferece a interoperabilidade entre subsistemas e os serviços de gestão energética que possibilita a activação de algoritmos de gestão racional de energia eléctrica.
Resumo:
As soluções de recuperação de informação actuais, que classificam documentos de acordo com a sua relevância, baseiam-se na sua grande maioria em algoritmos estatísticos não recorrendo a conhecimento semântico sobre o domínio pesquisado. Esta abordagem tem sido adoptada em grande escala e com bons resultados, em grande medida devido à baixa complexidade que apresenta e à facilidade e universalidade com que pode ser aplicada. Esta tese explora uma alternativa à pesquisa de informaçã baseada apenas na contagem de termos, tentando ao mesmo tempo manter a complexidade em níveis semelhantes. O trabalho desenvolvido baseia-se na utilização de Lógica de Descrição para representar conhecimento sobre um domínio e inferir pesquisas alternativas, que possam conduzir a um ganho na precisão dos resultados. Avaliam-se os ganhos obtidos por esta abordagem, nomeadamente na obtenção de resultados baseados em semelhança semântica e não puramente sintáctica. Esta abordagem permite obter resultados que não seriam considerados numa pesquisa puramente sintáctica.
Resumo:
A crescente complexidade dos sistemas computacionais leva a que seja necessário equacionar novas formas de resolução para os mais variados tipos de problemas. Uma vertente particularmente interessante, que tem sido investigada, é a implementação de sistemas inspirados em características biológicas. Os Agentes são entidades autónomas de software que se relacionam de forma social com vista ao cumprimento dos seus objectivos próprios e do sistema como um todo. Apesar das vantagens existentes na utilização destes sistemas, em termos de utilização comercial são poucas as implementações conhecidas. Na sua maioria, estes sistemas são utilizados com fins de investigação e académicos. Este trabalho tem por objectivo o estudo e desenvolvimento de uma solução que permita aproximar este sistema das necessidades reais existentes em sistemas reais, no contexto da interacção transaccional suportada por mecanismos transaccionais comuns. O trabalho apresenta três vertentes principais: (i) estudo das abordagens existentes para a resolução de interacções em âmbito transaccional; (ii) estudo e concepção de uma solução adaptada à utilização em ambientes transaccionais reais; (iii) concepção e implementação de um protótipo demonstrativo da abordagem proposta.
Resumo:
O presente trabalho consiste na análise estática e dinâmica de um reservatório de pressão horizontal aplicado ao transporte de mercadorias perigosas por estrada (Cisterna). Inicialmente fez-se um enquadramento do tema e relatou-se os resultados das pesquisas bibliográficas. De seguida, procedeu-se a uma análise estática, onde se definiu a mercadoria a transportar, a capacidade da cisterna, dimensões, tipo de topo e de secção, material de construção, pressões, temperaturas e calculou-se a espessura e tensões. Posteriormente, efectuou-se uma análise dinâmica simplificada. Por fim, reuniu-se os resultados, comparando-os e retirando conclusões. Os conteúdos aqui expostos são uma abordagem teórica e não um projecto, onde apenas se fez recurso a estudos analíticos e computacionais deixando de parte qualquer investigação experimental, não podendo existir responsabilidade pela aplicação prática destes conteúdos sem recurso a estudos mais profundos.
Resumo:
Este trabalho tem como objectivo a criação de modelos, resultantes da aplicação de algoritmos e técnicas de mineração de dados, que possam servir de suporte a um sistema de apoio à decisão útil a investidores do mercado de capitais. Os mercados de capitais, neste caso particular a Bolsa de Valores, são sistemas que gera diariamente grandes volumes de informação, cuja análise é complexa e não trivial para um investidor não profissional. Existem muitas variáveis que influenciam a decisão a tomar sobre a carteira de acções (vender, manter, comprar). Estas decisões têm como objectivo a maximização do lucro. Assim, um sistema que auxilie os investidores na tarefa de análise será considerado uma mais-valia. As decisões de um profissional são normalmente baseadas em dois tipos de análise: Fundamental e Técnica. A Análise Fundamental foca-se nos indicadores da “saúde financeira” da empresa, tendo como base a informação disponibilizada pela mesma. Por outro lado , a Análise Técnica, que será o foco deste trabalho, assenta na observação de indicadores estatísticos construídos com base no comportamento passado da acção. O recurso a estas análises permite aos investidores obterem alguma informação sobre a tendência da acção (subida ou descida). As análises apresentadas requerem um bom conhecimento do domínio do problema e tempo, o que as torna pouco acessíveis, sobretudo para os pequenos investidores. Com o intuito de democratizar o acesso a este tipo de investimentos, este trabalho, recorre a algoritmos de mineração de dados, tais como, árvores de classificação e redes neuronais que possam servir de base à construção de um modelo de suporte a obstáculos que podem impedir o investidor comum de entrar na Bolsa, designadamente o tempo gasto na análise e a complexidade da mesma, entre outros. Para a criação de modelos capazes de responder às expectativas, são realizados diversos ensaios recorrendo a vários algoritmos e conjuntos de dados, na busca do que melhor se adequa ao problema. Contudo é de ressalvar que a decisão de investimento estará sempre do lado do investidor, uma vez que o modelo deve permitir unicamente alimentar um sistema de apoio.
Resumo:
A necessidade de poder computacional é crescente nas diversas áreas de actuação humana, tanto na indústria, como em ambientes académicos. Grid Computing permite a ligação de recursos computacionais dispersos de maneira a permitir a sua utilização mais eficaz, fornecendo aos utilizadores um acesso simplificado ao poder computacional de diversos sistemas. Os primeiros projectos de Grid Computing implicavam a ligação de máquinas paralelas ou aglomerados de alto desempenho e alto custo, disponíveis apenas em algumas instituições. Contrastando com o elevado custo dos super-computadores, os computadores pessoais e a Internet sofreram uma evolução significativa nos últimos anos. O uso de computadores dispersos em uma WAN pode representar um ambiente muito interessante para processamento de alto desempenho. Os sistemas em Grid fornecem a possibilidade de se utilizar um conjunto de computadores pessoais de modo a fornecer uma computação que utiliza recursos que de outra maneira estariam omissos. Este trabalho consiste no estudo de Grid Computing a nível de conceito e de arquitectura e numa análise ao seu estado actual hoje em dia. Como complemento foi desenvolvido um componente que permite o desenvolvimento de serviços para Grids (Grid Services) mais eficaz do que o modelo de suporte a serviços actualmente utilizado. Este componente é disponibilizado sob a forma um plug-in para a plataforma Eclipse IDE.