1000 resultados para Algoritmo computacional
Resumo:
O ponto de efeito salino nulo (PESN) de amostras de solo é normalmente determinado por método gráfico e corresponde ao valor de pH referente ao ponto de interseção de curvas de titulação potenciométrica. Embora a elaboração dos gráficos em planilhas eletrônicas diminua a subjetividade existente no traçado manual, um tempo considerável é necessário quando a determinação do PESN envolve grande número de amostras. Este trabalho objetivou o desenvolvimento de um programa computacional para a determinação analítica do PESN de amostras de solo, com vistas em eliminar a subjetividade do método gráfico, proporcionar rapidez às determinações e permitir o conhecimento do grau de precisão dos valores calculados. Com o procedimento de cálculo desenvolvido, determinaram-se os valores de PESN a partir de resultados experimentais de titulação potenciométrica obtidos por outros autores. A comparação dos valores calculados pelo programa com os apresentados nos trabalhos consultados, os quais foram obtidos pelos autores por meio do método gráfico convencional, demonstrou ser o método analítico-computacional proposto bastante adequado para a determinação rápida e não-subjetiva do PESN de amostras de solo.
Resumo:
Mitjançant imatges estereoscòpiques es poden detectar la posició respecte dela càmera dels objectes que apareixen en una escena. A partir de lesdiferències entre les imatges captades pels dos objectius es pot determinar laprofunditat dels objectes. Existeixen diversitat de tècniques de visió artificialque permeten calcular la localització dels objectes, habitualment amb l’objectiude reconstruir l’escena en 3D. Aquestes tècniques necessiten una gran càrregacomputacional, ja que utilitzen mètodes de comparació bidimensionals, i pertant, no es poden utilitzar per aplicacions en temps real.En aquest treball proposem un nou mètode d’anàlisi de les imatgesestereoscòpiques que ens permeti obtenir la profunditat dels objectes d’unaescena amb uns resultats acceptables. Aquest nou mètode es basa entransformar la informació bidimensional de la imatge en una informacióunidimensional per tal de poder fer la comparació de les imatges amb un baixcost computacional, i dels resultats de la comparació extreure’n la profunditatdels objectes dins l’escena. Això ha de permetre, per exemple, que aquestmètode es pugui implementar en un dispositiu autònom i li permeti realitzaroperacions de guiatge a través d’espais interiors i exteriors.
Resumo:
A condutividade hidráulica do solo saturado (Kθs) é uma propriedade com grande variabilidade, o que exige a utilização de um número maior de determinações para que sua descrição possa ser feita adequadamente pela função densidade de probabilidade normal. Consequentemente, há aumento de trabalho e de tempo para a obtenção dos resultados, principalmente se as determinações forem feitas com equipamentos de pouca praticidade. A construção de equipamentos de maior praticidade e o desenvolvimento de ferramentas computacionais podem tornar o processo de análise mais rápido e preciso. Com esse objetivo, foi construído um permeâmetro de carga decrescente e desenvolvido um software para a aquisição de dados. As medidas de Kθs obtidas com esses equipamentos, em amostras de um Argissolo, mostraram menor variabilidade, avaliada pelo coeficiente de variação, o que resultou em maior precisão das determinações. Além disso, o tempo de análise foi reduzido em 30 %.
Resumo:
Há dois principais tipos de penetrômetro, o estático e o dinâmico. No primeiro, uma haste com uma ponta cônica é introduzida contínua e lentamente (quase estático), registrando-se concomitantemente a força de reação que é igual à resistência do solo. No segundo, utiliza-se a mesma haste. Contudo, esta é introduzida por meio da promoção de uma massa de impacto em queda livre. Dessa forma, a teoria pode ser tratada pela dinâmica newtoniana para obtenção da resistência. O objetivo do programa é proporcionar uma ferramenta rápida, facilitadora da computação de dados de resistência do solo, para esse último penetrômetro, resultando tabelas e gráficos já no formato científico. Desenvolvido em linguagem de programação Visual Basic Aplication (VBA), escolheu-se o aplicativo Excel como interface com o usuário pela sua popularidade. É constituído por quatro planilhas, duasauxiliares, sendo duas delas essenciais, Plan1 e 2: Plan1 - dados de entrada (número de impactos e profundidade). Concomitante à digitação, a tabela de resistência é confeccionada com o respectivo gráfico, podendo tabelar 40 perfis. Plan2 - cumpre função especial de equalizar, ou seja, padronizar a profundidade em camadas constantes, permitindo unificar todos os perfis em uma única tabela. Para tal, escolhe-se uma espessura de camada (exemplo: 5 cm); em seguida, o programa coleta os dados de resistência (MPa) da Plan1 e interpola os valores para a profundidade de 5 em 5 cm. Após realizar esse procedimento para todas as tabelas da Plan1, o programa gera, na Plan2, uma única tabela com todos os perfis, a média geral e os respectivos gráficos. É possível selecionar os perfis; por exemplo, apenas os medidos na linha ou entrelinha de plantio e eliminar perfis a critério do usuário. Como objetivo complementar, descreve-se a evolução do projeto "Penetrômetro de impacto", iniciado em 1982, cuja técnica passou a ser adotada no meio científico, após a publicação da teoria nesta revista em 1991. Apresenta-se também levantamento no meio científico nos últimos três anos (2010-2012), propiciando uma visão das principais aplicações na atualidade.
Resumo:
Testes de significância de contrastes de efeitos de níveis de um fator ou de combinações de níveis de dois ou mais fatores requerem o conhecimento das estimativas das variâncias dos estimadores desses contrastes. As expressões dessas estimativas para experimentos com delineamentos complexos, em geral, não são disponíveis em textos. Sua derivação algébrica a partir da equação do modelo estatístico é trabalhosa. Expõe-se um algoritmo prático para a obtenção da variância do estimador de qualquer contraste de parâmetros para delineamentos completos balanceados. O algoritmo baseia-se nos valores esperados dos quadrados médios.
Resumo:
O objetivo deste trabalho foi avaliar o mapeamento de área de cana‑de‑açúcar por meio de série temporal, de seis anos de dados do índice de vegetação por diferença normalizada (NDVI), oriundos do sensor Vegetation, a bordo do satélite "système pour l'observation de la Terre" (SPOT). Três classes de cobertura do solo (cana‑de‑açúcar, pasto e floresta), do Estado de São Paulo, foram selecionadas como assinaturas espectro‑temporais de referência, que serviram como membros extremos ("endmembers") para classificação com o algoritmo "spectral angle mapper" (SAM). A partir desta classificação, o mapeamento da área de cana‑de‑açúcar foi realizado com uso de limiares na imagem-regra do SAM, gerados a partir dos valores dos espectros de referência. Os resultados mostram que o algoritmo SAM pode ser aplicado a séries de dados multitemporais de resolução moderada, o que permite eficiente mapeamento de alvo agrícola em escala mesorregional. Dados oficiais de áreas de cana‑de‑açúcar, para as microrregiões paulistas, apresentam boa correlação (r² = 0,8) com os dados obtidos pelo método avaliado. A aplicação do algoritmo SAM mostrou ser útil em análises temporais. As séries temporais de NDVI do sensor SPOT Vegetation podem ser utilizadas para mapeamento da área de cana‑de‑açúcar em baixa resolução.
Resumo:
En la propagació d’un incendi en un edifici intervenen molts processos fisicoquímics degran complexitat: moviment turbulent dels gasos, reaccions de combustió, transmissióde la calor,.... L’avenç en el coneixement científic de tots aquests processos, unit a unincrement constant de la capacitat i velocitat computacional dels ordinadors, fanpossible la resolució de problemes cada cop més complexes i la creació de models desimulació cada cop més realistes.
Resumo:
Para diagnosticar la hipocalcemia, que a veces se presenta tras una tiroidectomia, habitualmente se recurre a la medida del ion calcio y a la evaluación de síntomas específicos de hipocalcemia (tetania, signo de Trousseau) o inespecíficos (parestesia, vómitos, etc) en los días posteriores a la intervención. Sería ideal que existiesen magnitudes bioquímicas que permitieran diagnosticar precozmente esta hipocalcemia y sintomatologia. Recientemente, se ha demostrado que las concentraciones intraoperatorias de paratirina (PTH) informan sobre el estado funcional de las glándulas paratiroides tras la tiroidectomia, por lo que éstas serian las magnitudes ideales que buscamos.
Resumo:
Este trabalho propõe um método de projeto de embalagem para produtos hortícolas, buscando uma otimização integrada dos aspectos geométricos, estruturais e térmicos, ligados à facilitação do resfriamento e armazenamento refrigerado. Para o dimensionamento e otimização estrutural, foi utilizado o Método dos Elementos Finitos implementado pelo programa ANSYS, obtendo-se oito modelos virtuais de embalagens, com 10% e 14% de área efetiva de aberturas e geometria quadrada, retangular e circular. Para o desenvolvimento dos experimentos, que avaliaram a relação da área de aberturas com o tempo de sete-oitavos de resfriamento, foram construídos protótipos de tábuas de madeira (Pinnus elliotti) de reflorestamento. Nas embalagens, foram acondicionados aproximadamente 13 kg de banana variedade Nanica (Musa cavendishii, cultivar nanica), resfriada num túnel de ar forçado (vazão de ar de 0,32 m³ s-1, temperatura de 8,0±1,2ºC e umidade relativa de 84,5±2,6%). O tempo de resfriamento também foi comparado com aquele obtido quando a mesma quantidade de frutas foi resfriada em embalagens de papelão (2,5% de área efetiva de abertura) e madeira (18% de área efetiva de abertura). Os resultados demonstraram que, entre os protótipos propostos, não houve diferença significativa no tempo de resfriamento dos frutos acondicionados nas embalagens desenvolvidas, sendo o tempo médio de resfriamento de 40,71±2,81 min. Na comparação com as embalagens de papelão e madeira, houve diferenças significativas, sendo que as embalagens comerciais tiveram tempos de resfriamento de 1,25 e 2 vezes maiores. Concluiu-se que a simulação estrutural computacional, aliada a algoritmos de otimização, além de procedimentos experimentais ligados à cadeia do frio, são recursos promissores no auxílio de projetos para embalagens de transporte de produtos hortícolas.
Resumo:
Fullerenes are wonderful molecules that exhibit a wealth of interesting properties, which promises a major role for this family in the future in the (bio)medicine and nanotechnology fields. However, there are still many unknowns such as for instance the reactivity of these molecules and how this is affected by metals. These aspects are difficult to apprehend by experiments alone, for which reason there is a widespread interest in the description and simulation of them by theoretical chemistry. Here we briefly describe our results from the past five years and their future impact
Resumo:
Este trabalho apresenta o resultado do estudo para elaboração de um programa computacional para avaliação e controle de serviços de radiologia médica de médio porte, de acordo com as recentes diretrizes de proteção radiológica do Ministério da Saúde. A rotina do Departamento de Radiologia do Hospital São Vicente de Paulo, Passo Fundo, RS, foi analisada, e a partir desta análise foi desenvolvido um programa computacional utilizando-se ferramentas de computação padrão Windows. O programa, chamado de "Sistema Radiológico", foi implementado e testado com dados e medições, ficando comprovado que a metodologia permite o acompanhamento dos requisitos da Portaria nº 453 do Ministério da Saúde e possibilita ganho de eficiência em diversas atividades.
Resumo:
OBJETIVO: Desenvolver um programa computacional para avaliar e controlar as características das curvas sensitométricas. MATERIAIS E MÉTODOS: Para o desenvolvimento do programa, foi elaborado um método de obtenção dos valores das características sensitométricas, de filmes de baixo e alto contraste, sem a necessidade da fixação de degraus de referência. RESULTADOS: O programa, denominado Sensito, foi implementado e testado utilizando dados sensitométricos de curvas características dos departamentos de radiologia convencional, hemodinâmica e mamografia. Ficou comprovada a possibilidade da análise das curvas sensitométricas destas áreas sem a necessidade de ajustes, dependentes dos usuários, e sem incorrer em desvios nos parâmetros sensitométricos avaliados e na variação destes. CONCLUSÃO: O programa possibilita a criação de um banco de dados de curvas sensitométricas para diferentes processadoras de uma instituição, gerando com facilidade as curvas sensitométrica e gama, de um registro, e os gráficos de constância das características sensitométricas avaliadas, fornecendo importante ferramenta para manter o controle sensitométrico.
Resumo:
OBJETIVO: Utilizar o poder de processamento da tecnologia de grades computacionais para viabilizar a utilização do algoritmo de medida de similaridade na recuperação de imagens baseada em conteúdo. MATERIAIS E MÉTODOS: A técnica de recuperação de imagens baseada em conteúdo é composta de duas etapas seqüenciais: análise de textura e algoritmo de medida de similaridade. Estas são aplicadas em imagens de joelho e cabeça, nas quais se avaliaram a eficiência em recuperar imagens do mesmo plano e a seqüência de aquisição em um banco de 2.400 imagens médicas para testar a capacidade de recuperação de imagens baseada em conteúdo. A análise de textura foi utilizada inicialmente para pré-selecionar as 1.000 imagens mais semelhantes a uma imagem de referência escolhida por um clínico. Essas 1.000 imagens foram processadas utilizando-se o algoritmo de medida de similaridade na grade computacional. RESULTADOS: A precisão encontrada na classificação por análise de textura foi de 0,54 para imagens sagitais de joelho e de 0,40 para imagens axiais de cabeça. A análise de textura foi útil como filtragem, pré-selecionando imagens a serem avaliadas pelo algoritmo de medida de similaridade. A recuperação de imagens baseada em conteúdo utilizando o algoritmo de medida de similaridade aplicado nas imagens pré-selecionadas por análise de textura resultou em precisão de 0,95 para as imagens sagitais de joelho e de 0,92 para as imagens axiais de cabeça. O alto custo computacional do algoritmo de medida de similaridade foi amortizado pela grade computacional. CONCLUSÃO: A utilização da abordagem mista das técnicas de análise de textura e algoritmo de medida de similaridade no processo de recuperação de imagens baseada em conteúdo resultou em eficiência acima de 90%. A grade computacional é indispensável para utilização do algoritmo de medida de similaridade na recuperação de imagens baseada em conteúdo, que de outra forma seria limitado a supercomputadores.