999 resultados para Algoritmo de Prim


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper a computer program to model and support product design is presented. The product is represented through a hierarchical structure that allows the user to navigate across the product’s components, and it aims at facilitating each step of the detail design process. A graphical interface was also developed, which shows visually to the user the contents of the product structure. Features are used as building blocks for the parts that compose the product, and object-oriented methodology was used as a means to implement the product structure. Finally, an expert system was also implemented, whose knowledge base rules help the user design a product that meets design and manufacturing requirements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente vêm sendo desenvolvidas e utilizadas várias técnicas de modelagem de distribuição geográfica de espécies com os mais variados objetivos. Algumas dessas técnicas envolvem modelagem baseada em análise ambiental, nas quais os algoritmos procuram por condições ambientais semelhantes àquelas onde as espécies foram encontradas, resultando em áreas potenciais onde as condições ambientais seriam propícias ao desenvolvimento dessas espécies. O presente estudo trata do uso da modelagem preditiva de distribuição geográfica de espécies nativas, através da utilização de algoritmo genético, como ferramenta para auxiliar o entendimento dos padrões de distribuição do bioma cerrado no Estado de São Paulo. A metodologia empregada e os resultados obtidos foram considerados satisfatórios para a geração de modelos de distribuição geográfica de espécies vegetais, baseados em dados abióticos, para as regiões de estudo. A eficácia do modelo em predizer a ocorrência de espécies do cerrado é maior se forem utilizados apenas pontos de amostragem com fisionomias de cerrado, excluindo-se áreas de transição. Para minimizar problemas decorrentes da falta de convergência do algoritmo utilizado GARP ("Genetic Algorithm for Rule Set Production"), foram gerados 100 modelos para cada espécie modelada. O uso de modelagem pode auxiliar no entendimento dos padrões de distribuição de um bioma ou ecossistema em uma análise regional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A relação entre o NaCl e a hipertensão arterial tem estimulado a sua substituição parcial por KCl em queijos. Entretanto, para manter a qualidade final do produto, é de suma importância assegurar uma proporção adequada de NaCl/KCl, bem como a distribuição homogênea destes sais. Os modelos que estimam a concentração salina, portanto, são valiosas ferramentas para o controle de qualidade. Para simular a difusão multicomponente durante a salga em salmoura estática, foi proposto um modelo unidimensional, baseado na solução analítica da 2ª lei de Fick generalizada para dois solutos. A solução analítica, implementada através de um algoritmo computacional, permitiu o ajuste dos coeficientes de difusão e a avaliação da resistência externa. Os resultados da simulação obtidos apresentaram boa concordância com os valores experimentais (desvio de 2,7% para o NaCl e 6,6% para o KCl), validando a capacidade preditiva do modelo proposto. Além disso, a simulação pode permitir um ajuste de ganhos de produtividade (redução do tempo de salga) através da estimativa do tempo de salga para teores salinos desejados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho teve como objetivo mostrar a utilidade da biologia molecular para o diagnóstico da síndrome de Bartter (SB) por meio do relato de caso de duas irmãs e propor um algoritmo para abordagem molecular dessa síndrome. Os dois casos relatados apresentaram prematuridade, gestação complicada com poli-hidrâmnio e baixo peso ao nascer. Durante o primeiro ano de vida, as crianças apresentaram poliúria, polidipsia e atraso no crescimento, o que levou à investigação de doenças tubulares renais e erros inatos do metabolismo. Os exames laboratoriais sugeriram SB, mas a confirmação diagnóstica só foi obtida pela detecção de mutação em homozigose no exon 5 do gene KCNJ1, resultando em substituição do aminoácido alanina por valina no códon 214 (A214V) nas duas fitas de DNA nas duas irmãs e de mutação em heterozigose em seus pais. O diagnóstico de certeza da SB muitas vezes é difícil de ser obtido. Dessa forma, por meio dos casos relatados, mostrou-se a utilidade de métodos moleculares para o diagnóstico de certeza da SB, e foi proposto um algoritmo para a utilização racional dessas técnicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: A doença renal policística autossômica dominante é a enfermidade renal hereditária mais comum em seres humanos. Objetivo: Analisar a prevalência, características clínicas e laboratoriais de pacientes com rins policísticos e relacionar as manifestações da doença por gênero. Métodos: Trata-se de um estudo observacional e retrospectivo. Foram revisados todos os prontuários médicos de pacientes com rins policísticos admitidos para hemodiálise entre 1995 e 2012, em quatro centros que atendem a área de abrangência da 15ª regional de saúde do Paraná, Brasil. Resultados: Fizeram parte do estudo 48 pacientes com rins policísticos, causa primária da doença renal crônica (DRC) estágio 5. A prevalência da doença foi de um em 10.912 habitantes. A média de idade de ingresso na hemodiálise (50,7 anos) e o tempo de seguimento em hemodiálise até o transplante (36,5 meses) foi menor nos homens. A hipertensão arterial foi o diagnóstico mais frequente em 73% dos pacientes, com predominância em mulheres (51,4%). O cisto hepático foi a manifestação extrarrenal mais frequente nos homens (60,0%). Foram a óbito 10,4% dos pacientes que faziam uso de hemodiálise, sendo 60% de homens. A classe de droga anti-hipertensiva mais utilizada foi a que atua no sistema renina-angiotensina, com maior frequência de uso nas mulheres (53,3%). A ureia pós-diálise foi significativamente maior em homens. Conclusão: A prevalência da doença é baixa entre pacientes em hemodiálise no sul do Brasil. As diferenças observadas entre os gêneros, com exceção da ureia pós, não foram significantes. Os dados encontrados são diferentes dos reportados na América do Norte e Europa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gamma aminohutyric acid (GAB A.) receptor tunctionaI status was artaIV se(l in pa It ial hcpatcctoIn ised.II'II). lead nitrate (LN) induced hyperplastic and N-nifrosodiethylantinc INDEAI treated nctplastic rat Iivers during peak DNA synthesis. The high-affinity I'HJGALA binding significantly decreased in PII and NDEi\ rats and the receptor affinity decreased in NDEA and increased in LN rats compared with control . in NDEA. displacement analysis of I'I IIGABA with muscimol showed loss of low-allinity site and a shill of high-allinity cite towards low-allinity . ' 1 he affinity sites shifted towards high-affinity in LN rats. 'file number of low-allinity 1'I Ilhicuc)lline receptors decreased cignilic:uttly in NDEA and I'll whereas it increased in LN rats. (ir\Bi\t receptor :gunist. unrscinrul. disc dependcnllyinhihilcd epidermal growth factor IEGI--) induced DNA synthesis :uul enhanced the tr:utsfnrnting grmvth )actor (Il I I'(il (tlI mediated DNA synthesis suppression in prim:uy hepalucvte cultures . Our results suggest that GABA,t reccjhtor act as an inhibitory signal fur hepatic cell prolifctatiun.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cuaderno de trabajo dirigido a los alumnos de Secundaria. Intenta ser, una herramienta, a través de la cual, la adquisición de conocimientos por parte de los alumnos mejore, convirtiéndose éstos en los constructores de sus propios aprendizajes. Está dividido en dos partes, en la primera se establecen los objetivos, contenidos, evaluación y el desarrollo de la propuesta de trabajo; la segunda se presenta como un cuaderno de trabajo específico para el alumno con una serie de materiales estructurados fundamentalmente en tres tipos de actividades: trabajo personal, trabajo en pequeño grupo y trabajo en gran grupo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tecnología LiDAR (Light Detection and Ranging), basada en el escaneado del territorio por un telémetro láser aerotransportado, permite la construcción de Modelos Digitales de Superficie (DSM) mediante una simple interpolación, así como de Modelos Digitales del Terreno (DTM) mediante la identificación y eliminación de los objetos existentes en el terreno (edificios, puentes o árboles). El Laboratorio de Geomática del Politécnico de Milán – Campus de Como- desarrolló un algoritmo de filtrado de datos LiDAR basado en la interpolación con splines bilineares y bicúbicas con una regularización de Tychonov en una aproximación de mínimos cuadrados. Sin embargo, en muchos casos son todavía necesarios modelos más refinados y complejos en los cuales se hace obligatorio la diferenciación entre edificios y vegetación. Este puede ser el caso de algunos modelos de prevención de riesgos hidrológicos, donde la vegetación no es necesaria; o la modelización tridimensional de centros urbanos, donde la vegetación es factor problemático. (...)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen tomado de la publicaci??n

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents the use of a mobile robot platform as an innovative educational tool in order to promote and integrate different curriculum knowledge. Hence, it is presented the acquired experience within a summer course named ldquoapplied mobile roboticsrdquo. The main aim of the course is to integrate different subjects as electronics, programming, architecture, perception systems, communications, control and trajectory planning by using the educational open mobile robot platform PRIM. The summer course is addressed to a wide range of student profiles. However, it is of special interests to the students of electrical and computer engineering around their final academic year. The summer course consists of the theoretical and laboratory sessions, related to the following topics: design & programming of electronic devices, modelling and control systems, trajectory planning and control, and computer vision systems. Therefore, the clues for achieving a renewed path of progress in robotics are the integration of several knowledgeable fields, such as computing, communications, and control sciences, in order to perform a higher level reasoning and use decision tools with strong theoretical base

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La infección del tracto urinario (ITU) es la enfermedad bacteriana de carácter no epidémico más frecuente en la infancia, entre el 3 – 5% de las niñas y entre 1 – 2% de los niños se verán afectados a lo largo de su infancia al menos un episodio1. Entre los factores que predisponen a la infección urinaria, el reflujo vesicoureteral es el más frecuente, con 25 – 50%, estando presente en el 18 – 50% de los pacientes con primer episodio de ITU2, sin embargo para algunos autores en ninguno de ellos se ha encontrado un reflujo vesicoureteral (RVU) mayor que justifique intervención inmediata. Actualmente en los niños con primer episodio de infección urinaria se realizan pruebas como la ecografía renal y de vías urinarias, la gamagrafía renal DMSA (ácido dimercapto-succínico) y la cistouretrografía miccional (CUM) para evaluar las vías urinarias y descarta RVU. Existe controversia sobre la necesidad de realizar la CUM en todos los niños dado que la mayoría presentan RVU de grados menores en los que el manejo es médico, y solo en los RVU de grados mayores se consideran otras opciones de manejo. Es aconsejable entonces crear un algoritmo para optimizar el estudio de la ITU, disminuyendo costos y molestias innecesarias para el paciente y sin sacrificar el beneficio diagnóstico, para así iniciar en forma acertada un tratamiento definitivo.