922 resultados para Lògica borrosa


Relevância:

60.00% 60.00%

Publicador:

Resumo:

El concepto de algoritmo es básico en informática, por lo que es crucial que los alumnos profundicen en él desde el inicio de su formación. Por tanto, contar con una herramienta que guíe a los estudiantes en su aprendizaje puede suponer una gran ayuda en su formación. La mayoría de los autores coinciden en que, para determinar la eficacia de una herramienta de visualización de algoritmos, es esencial cómo se utiliza. Así, los estudiantes que participan activamente en la visualización superan claramente a los que la contemplan de forma pasiva. Por ello, pensamos que uno de los mejores ejercicios para un alumno consiste en simular la ejecución del algoritmo que desea aprender mediante el uso de una herramienta de visualización, i. e. consiste en realizar una simulación visual de dicho algoritmo. La primera parte de esta tesis presenta los resultados de una profunda investigación sobre las características que debe reunir una herramienta de ayuda al aprendizaje de algoritmos y conceptos matemáticos para optimizar su efectividad: el conjunto de especificaciones eMathTeacher, además de un entorno de aprendizaje que integra herramientas que las cumplen: GRAPHs. Hemos estudiado cuáles son las cualidades esenciales para potenciar la eficacia de un sistema e-learning de este tipo. Esto nos ha llevado a la definición del concepto eMathTeacher, que se ha materializado en el conjunto de especificaciones eMathTeacher. Una herramienta e-learning cumple las especificaciones eMathTeacher si actúa como un profesor virtual de matemáticas, i. e. si es una herramienta de autoevaluación que ayuda a los alumnos a aprender de forma activa y autónoma conceptos o algoritmos matemáticos, corrigiendo sus errores y proporcionando pistas para encontrar la respuesta correcta, pero sin dársela explícitamente. En estas herramientas, la simulación del algoritmo no continúa hasta que el usuario introduce la respuesta correcta. Para poder reunir en un único entorno una colección de herramientas que cumplan las especificaciones eMathTeacher hemos creado GRAPHs, un entorno ampliable, basado en simulación visual, diseñado para el aprendizaje activo e independiente de los algoritmos de grafos y creado para que en él se integren simuladores de diferentes algoritmos. Además de las opciones de creación y edición del grafo y la visualización de los cambios producidos en él durante la simulación, el entorno incluye corrección paso a paso, animación del pseudocódigo del algoritmo, preguntas emergentes, manejo de las estructuras de datos del algoritmo y creación de un log de interacción en XML. Otro problema que nos planteamos en este trabajo, por su importancia en el proceso de aprendizaje, es el de la evaluación formativa. El uso de ciertos entornos e-learning genera gran cantidad de datos que deben ser interpretados para llegar a una evaluación que no se limite a un recuento de errores. Esto incluye el establecimiento de relaciones entre los datos disponibles y la generación de descripciones lingüísticas que informen al alumno sobre la evolución de su aprendizaje. Hasta ahora sólo un experto humano era capaz de hacer este tipo de evaluación. Nuestro objetivo ha sido crear un modelo computacional que simule el razonamiento del profesor y genere un informe sobre la evolución del aprendizaje que especifique el nivel de logro de cada uno de los objetivos definidos por el profesor. Como resultado del trabajo realizado, la segunda parte de esta tesis presenta el modelo granular lingüístico de la evaluación del aprendizaje, capaz de modelizar la evaluación y generar automáticamente informes de evaluación formativa. Este modelo es una particularización del modelo granular lingüístico de un fenómeno (GLMP), en cuyo desarrollo y formalización colaboramos, basado en la lógica borrosa y en la teoría computacional de las percepciones. Esta técnica, que utiliza sistemas de inferencia basados en reglas lingüísticas y es capaz de implementar criterios de evaluación complejos, se ha aplicado a dos casos: la evaluación, basada en criterios, de logs de interacción generados por GRAPHs y de cuestionarios de Moodle. Como consecuencia, se han implementado, probado y utilizado en el aula sistemas expertos que evalúan ambos tipos de ejercicios. Además de la calificación numérica, los sistemas generan informes de evaluación, en lenguaje natural, sobre los niveles de competencia alcanzados, usando sólo datos objetivos de respuestas correctas e incorrectas. Además, se han desarrollado dos aplicaciones capaces de ser configuradas para implementar los sistemas expertos mencionados. Una procesa los archivos producidos por GRAPHs y la otra, integrable en Moodle, evalúa basándose en los resultados de los cuestionarios. ABSTRACT The concept of algorithm is one of the core subjects in computer science. It is extremely important, then, for students to get a good grasp of this concept from the very start of their training. In this respect, having a tool that helps and shepherds students through the process of learning this concept can make a huge difference to their instruction. Much has been written about how helpful algorithm visualization tools can be. Most authors agree that the most important part of the learning process is how students use the visualization tool. Learners who are actively involved in visualization consistently outperform other learners who view the algorithms passively. Therefore we think that one of the best exercises to learn an algorithm is for the user to simulate the algorithm execution while using a visualization tool, thus performing a visual algorithm simulation. The first part of this thesis presents the eMathTeacher set of requirements together with an eMathTeacher-compliant tool called GRAPHs. For some years, we have been developing a theory about what the key features of an effective e-learning system for teaching mathematical concepts and algorithms are. This led to the definition of eMathTeacher concept, which has materialized in the eMathTeacher set of requirements. An e-learning tool is eMathTeacher compliant if it works as a virtual math trainer. In other words, it has to be an on-line self-assessment tool that helps students to actively and autonomously learn math concepts or algorithms, correcting their mistakes and providing them with clues to find the right answer. In an eMathTeacher-compliant tool, algorithm simulation does not continue until the user enters the correct answer. GRAPHs is an extendible environment designed for active and independent visual simulation-based learning of graph algorithms, set up to integrate tools to help the user simulate the execution of different algorithms. Apart from the options of creating and editing the graph, and visualizing the changes made to the graph during simulation, the environment also includes step-by-step correction, algorithm pseudo-code animation, pop-up questions, data structure handling and XML-based interaction log creation features. On the other hand, assessment is a key part of any learning process. Through the use of e-learning environments huge amounts of data can be output about this process. Nevertheless, this information has to be interpreted and represented in a practical way to arrive at a sound assessment that is not confined to merely counting mistakes. This includes establishing relationships between the available data and also providing instructive linguistic descriptions about learning evolution. Additionally, formative assessment should specify the level of attainment of the learning goals defined by the instructor. Till now, only human experts were capable of making such assessments. While facing this problem, our goal has been to create a computational model that simulates the instructor’s reasoning and generates an enlightening learning evolution report in natural language. The second part of this thesis presents the granular linguistic model of learning assessment to model the assessment of the learning process and implement the automated generation of a formative assessment report. The model is a particularization of the granular linguistic model of a phenomenon (GLMP) paradigm, based on fuzzy logic and the computational theory of perceptions, to the assessment phenomenon. This technique, useful for implementing complex assessment criteria using inference systems based on linguistic rules, has been applied to two particular cases: the assessment of the interaction logs generated by GRAPHs and the criterion-based assessment of Moodle quizzes. As a consequence, several expert systems to assess different algorithm simulations and Moodle quizzes have been implemented, tested and used in the classroom. Apart from the grade, the designed expert systems also generate natural language progress reports on the achieved proficiency level, based exclusively on the objective data gathered from correct and incorrect responses. In addition, two applications, capable of being configured to implement the expert systems, have been developed. One is geared up to process the files output by GRAPHs and the other one is a Moodle plug-in set up to perform the assessment based on the quizzes results.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El objetivo principal de este proyecto ha sido introducir aprendizaje automático en la aplicación FleSe. FleSe es una aplicación web que permite realizar consultas borrosas sobre bases de datos nítidos. Para llevar a cabo esta función la aplicación utiliza unos criterios para definir los conceptos borrosos usados para llevar a cabo las consultas. FleSe además permite que el usuario cambie estas personalizaciones. Es aquí donde introduciremos el aprendizaje automático, de tal manera que los criterios por defecto cambien y aprendan en función de las personalizaciones que van realizando los usuarios. Los objetivos secundarios han sido familiarizarse con el desarrollo y diseño web, al igual que recordar y ampliar el conocimiento sobre lógica borrosa y el lenguaje de programación lógica Ciao-Prolog. A lo largo de la realización del proyecto y sobre todo después del estudio de los resultados se demuestra que la agrupación de los usuarios marca la diferencia con la última versión de la aplicación. Esto se basa en la siguiente idea, podemos usar un algoritmo de aprendizaje automático sobre las personalizaciones de los criterios de todos los usuarios, pero la gran diversidad de opiniones de los usuarios puede llevar al algoritmo a concluir criterios erróneos o no representativos. Para solucionar este problema agrupamos a los usuarios intentando que cada grupo tengan la misma opinión o mismo criterio sobre el concepto. Y después de haber realizado las agrupaciones usar el algoritmo de aprendizaje automático para precisar el criterio por defecto de cada grupo de usuarios. Como posibles mejoras para futuras versiones de la aplicación FleSe sería un mejor control y manejo del ejecutable plserver. Este archivo se encarga de permitir a la aplicación web usar el lenguaje de programación lógica Ciao-Prolog para llevar a cabo la lógica borrosa relacionada con las consultas. Uno de los problemas más importantes que ofrece plserver es que bloquea el hilo de ejecución al intentar cargar un archivo con errores y en caso de ocurrir repetidas veces bloquea todas las peticiones siguientes bloqueando la aplicación. Pensando en los usuarios y posibles clientes, sería también importante permitir que FleSe trabajase con bases de datos de SQL en vez de almacenar la base de datos en los archivos de Prolog. Otra posible mejora basarse en distintas características a la hora de agrupar los usuarios dependiendo de los conceptos borrosos que se van ha utilizar en las consultas. Con esto se conseguiría que para cada concepto borroso, se generasen distintos grupos de usuarios, los cuales tendrían opiniones distintas sobre el concepto en cuestión. Así se generarían criterios por defecto más precisos para cada usuario y cada concepto borroso.---ABSTRACT---The main objective of this project has been to introduce machine learning in the application FleSe. FleSe is a web application that makes fuzzy queries over databases with precise information, using defined criteria to define the fuzzy concepts used by the queries. The application allows the users to change and custom these criteria. On this point is where the machine learning would be introduced, so FleSe learn from every new user customization of the criteria in order to generate a new default value of it. The secondary objectives of this project were get familiar with web development and web design in order to understand the how the application works, as well as refresh and improve the knowledge about fuzzy logic and logic programing. During the realization of the project and after the study of the results, I realized that clustering the users in different groups makes the difference between this new version of the application and the previous. This conclusion follows the next idea, we can use an algorithm to introduce machine learning over the criteria that people have, but the problem is the diversity of opinions and judgements that exists, making impossible to generate a unique correct criteria for all the users. In order to solve this problem, before using the machine learning methods, we cluster the users in order to make groups that have the same opinion, and afterwards, use the machine learning methods to precise the default criteria of each users group. The future improvements that could be important for the next versions of FleSe will be to control better the behaviour of the plserver file, that cost many troubles at the beginning of this project and it also generate important errors in the previous version. The file plserver allows the web application to use Ciao-Prolog, a logic programming language that control and manage all the fuzzy logic. One of the main problems with plserver is that when the user uploads a file with errors, it will block the thread and when this happens multiple times it will start blocking all the requests. Oriented to the customer, would be important as well to allow FleSe to manage and work with SQL databases instead of store the data in the Prolog files. Another possible improvement would that the cluster algorithm would be based on different criteria depending on the fuzzy concepts that the selected Prolog file have. This will generate more meaningful clusters, and therefore, the default criteria offered to the users will be more precise.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Las redes del futuro, incluyendo las redes de próxima generación, tienen entre sus objetivos de diseño el control sobre el consumo de energía y la conectividad de la red. Estos objetivos cobran especial relevancia cuando hablamos de redes con capacidades limitadas, como es el caso de las redes de sensores inalámbricos (WSN por sus siglas en inglés). Estas redes se caracterizan por estar formadas por dispositivos de baja o muy baja capacidad de proceso y por depender de baterías para su alimentación. Por tanto la optimización de la energía consumida se hace muy importante. Son muchas las propuestas que se han realizado para optimizar el consumo de energía en este tipo de redes. Quizás las más conocidas son las que se basan en la planificación coordinada de periodos de actividad e inactividad, siendo una de las formas más eficaces para extender el tiempo de vida de las baterías. La propuesta que se presenta en este trabajo se basa en el control de la conectividad mediante una aproximación probabilística. La idea subyacente es que se puede esperar que una red mantenga la conectividad si todos sus nodos tienen al menos un número determinado de vecinos. Empleando algún mecanismo que mantenga ese número, se espera que se pueda mantener la conectividad con un consumo energético menor que si se empleara una potencia de transmisión fija que garantizara una conectividad similar. Para que el mecanismo sea eficiente debe tener la menor huella posible en los dispositivos donde se vaya a emplear. Por eso se propone el uso de un sistema auto-adaptativo basado en control mediante lógica borrosa. En este trabajo se ha diseñado e implementado el sistema descrito, y se ha probado en un despliegue real confirmando que efectivamente existen configuraciones posibles que permiten mantener la conectividad ahorrando energía con respecto al uso de una potencia de transmisión fija. ABSTRACT. Among the design goals for future networks, including next generation networks, we can find the energy consumption and the connectivity. These two goals are of special relevance when dealing with constrained networks. That is the case of Wireless Sensors Networks (WSN). These networks consist of devices with low or very low processing capabilities. They also depend on batteries for their operation. Thus energy optimization becomes a very important issue. Several proposals have been made for optimizing the energy consumption in this kind of networks. Perhaps the best known are those based on the coordinated planning of active and sleep intervals. They are indeed one of the most effective ways to extend the lifetime of the batteries. The proposal presented in this work uses a probabilistic approach to control the connectivity of a network. The underlying idea is that it is highly probable that the network will have a good connectivity if all the nodes have a minimum number of neighbors. By using some mechanism to reach that number, we hope that we can preserve the connectivity with a lower energy consumption compared to the required one if a fixed transmission power is used to achieve a similar connectivity. The mechanism must have the smallest footprint possible on the devices being used in order to be efficient. Therefore a fuzzy control based self-adaptive system is proposed. This work includes the design and implementation of the described system. It also has been validated in a real scenario deployment. We have obtained results supporting that there exist configurations where it is possible to get a good connectivity saving energy when compared to the use of a fixed transmission power for a similar connectivity.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisa o modo com que os parlamentares se organizam frente à estrutura institucional no Congresso Nacional. Tem como referências para discussão, contribuições de Barry Ames (2003) e Figueiredo e Limongi (2001) que apresentam dois modelos de funcionamento do Parlamento, o distributivista e o partidário. Analisa a atuação da Frente Parlamentar Mista das Micro e Pequenas Empresas. Enfatiza a segunda fase de funcionamento da Frente, os anos de 2008 e 2009, quando trabalhou pela regulamentação da Lei Geral das Micro e Pequenas Empresas (Lei Complementar nº 123/06) nos Estados e Municípios e seus aperfeiçoamentos por meio da aprovação de Leis Complementares nºs 127/07, 128/08 e 133/09.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES] Este trabajo en homenaje al Profesor Emilio Soldevilla trata de plantear algunos elementos de la matemática combinatoria, escogidos sin otro criterio que el de ser fácilmente visualizados para poner en evidencia el aspecto altamente significativo que poseen para la construcción de una epistemología de la economía y gestión de empresas. Y todo ello en torno a uno de los conceptos más destacados de este ámbito del conocimiento cual es el de decisión.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES] Este trabajo trata de profundizar en la comprensión del concepto de marketing interno (MI), considerado como un recurso operante desde la óptica de la Lógica Dominante del Servicio (LDS), así como en su influencia en la obtención de resultados empresariales superiores a los de la competencia. Para ello, se examina el efecto del MI en la predisposición de las empresas analizadas a que sus clientes y empleados de primera línea participen en el desarrollo de innovaciones de servicio, ampliando de este modo, de acuerdo con la LDS, las oportunidades de co-creación de valor disponibles para las organizaciones. Para contrastar las hipótesis planteadas se aplica un análisis de ecuaciones estructurales a la información facilitada por los gerentes de 240 hoteles de una muestra de ámbito nacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Congreso 750 aniversario de la fundación de la villa de Salvatierra. Ana de Begoña Azcárraga y Henrike Knörr Borras in memorian.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partir da Lei n. 6.938 de 31 de agosto de 1981, que constituiu o Sistema Nacional do Meio Ambiente, criou-se o Conselho Nacional do Meio Ambiente e instituiu-se o Cadastro Técnico Federal de Atividades e Instrumentos de Defesa Ambiental, a gestão ambiental pública ganhou um espaço cada vez maior nas administrações municipais, com a implementação de instrumentos de gestão ambiental propiciando aos municípios a possibilidade de ações efetivas que contribuam para uma melhor qualidade de vida a população. Esse trabalho propõe a criação de um método de classificação municipal que indicará qual o nível da gestão ambiental do município. Verificando o número de instrumentos de gestão ambiental constituído e o número de problemas ambientais ocorridos em cada município na visão do gestor local nos anos de 2006/2008. E ainda qual a influência do IDH tanto na implementação de tais instrumentos de gestão ambiental, como nas ocorrências dos problemas ambientais. Tal classificação tem a intenção de verificar se o município encontra-se bem aparelhado no que se refere à gestão ambiental, auxiliando para futuras decisões nas ações da política ambiental local. O foco desse trabalho serão os municípios dos estados de Minas Gerais, Piauí e Rio de Janeiro. Os resultados serão processados via o software MATLAB utilizando lógica nebulosa (fuzzy) e apresentados em um website utilizando as linguagens de programação JSP, HTML, JavaScript e esse website armazenado em um servidor TomCat e tais resultados serão apresentados nas formas de valores alfanuméricos em tabelas e espaciais através de mapas temáticos em uma solução sig-web. Os dados estão armazenados em um Sistema Gerenciador de Banco de Dados PostgreSQL com sua extensão espacial PostGIS, e o acesso aos mapas será feito através do servidor de mapas MapServer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho consiste de uma análise exploratória sobre municípios do Sudeste com população acima de 100mil habitantes abordando dois problemas: a violência e a educação. Na violência abordaremos índices de homicídios na adolescência trabalhando com a faixa de adolescentes de 12 a 18 anos. Na educação trabalharemos com o Índice de Desenvolvimento Educacionail Brasileiro referenciado ao último ano do ensino fundamental. Trabalhando com os indicadores citados, abordaremos esses problemas gerando um Índice de Saúde social do Adolescente utilizando a lógica Fuzzy, conjunto nebuloso. Classificando os municípios do Sudeste visando identificar municípios com qualidade de vida melhor para esses adolescentes, expectativa de vida e melhoria na educação. Baixos índices de homicídios e altos índices educacionais desenvolvendo uma ferramenta útil para auxiliar na tomada de decisões no tocante a políticas públicas nos Municípios e Estados gerando um indicador de municípios com qualidade de vida para os adolescentes! Trabalhamos com dados do ano de 2007 tanto para o homicídio quanto para a educação, os valores apresentados nos índices foram divididos em quintis, processados via o software MATLAB utilizando lógica nebulosa (fuzzy), classificados e apresentados nas formas de valores alfanuméricos em tabelas espaciais com o software Quantum Gis através de mapas temáticos das regiões estudadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo propor um modelo de ontologia simples e generalista, capaz de descrever os conceitos mais básicos que permeiam o domínio de conhecimento dos jornais on-line brasileiros não especializados, fundamentado tanto na prática quanto conceitualmente, em conformidade com os princípios da Web Semântica. A partir de uma nova forma de classificação e organização do conteúdo, a ontologia proposta deve ter condições de atender as necessidades comuns de ambas as partes, jornal e leitor, que são, resumidamente, a busca e a recuperação das informações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES]El objeto de este trabajo es desarrollar la lógica programable de una FPGA para un sistema de monitorización de estructuras. El diseño se compone de un generador de señales arbitrarias y un sistema de adquisición. El sistema de monitorización está dirigido al campo aeronáutico, pero se puede emplear en otras áreas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Qual a Filosofia da Natureza que podemos inferir da Física Contemporânea? Para Werner Karl Heisenberg, prêmio Nobel de Física de 1932, a ontologia da Ciência Moderna, estruturada no materialismo, no mecanicismo e no determinismo já não pode servir de fundamento para a nova Física. Esta requer uma nova base ontológica, onde o antirrealismo, seguido de um formalismo puro, aparece como o princípio basilar de uma nova Filosofia Natural. Este trabalho visa investigar o pensamento filosófico, a ontologia antirrealista, formalista, a abordagem da tradição filosófica e da história da ciência de Werner Heisenberg e sua contribuição para a interpretação da mecânica quântica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos anos, a área da saúde vem explorando o potencial das novas tecnologias para diagnóstico e tratamentos de muitos distúrbios. Em especial, a tecnologia de Realidade Virtual se destaca por oferecer novas perspectivas de tratamento para diferentes distúrbios neuropsiquiátricos. Por outro lado, a ocorrência de problemas causados por situações traumáticas vem crescendo em todo o mundo. Nesse contexto, o Transtorno de Estresse Pós-Traumático (TEPT) é classificado como um transtorno de ansiedade que se caracteriza por gerar uma classe de comportamentos inadequados a situações que não representam perigo real. Em geral, este transtorno está relacionado à ocorrência de algum evento traumático de grande magnitude no passado. Vários trabalhos foram desenvolvidos utilizando ambientes virtuais tridimensionais (3D) para tratar e diagnosticar este distúrbio. Entretanto, percebe-se uma carência de sistemas que consigam controlar o nível de dificuldade das atividades desenvolvidas nesses ambientes. Nesse caso, esta dissertação tem por objetivo descrever o desenvolvimento e avaliar o potencial de utilização de dois sistemas: um que explora a Realidade Virtual (ARVET) para oferecer cenas virtuais que simulem os estímulos geradores de ansiedade similares aqueles da vida real; e outro que explora a Lógica Fuzzy (SAPTEPT) para classificar os níveis de ansiedade do paciente, possibilitando a análise quali-quantitativa de dados psicofisiológicos e psicométricos. As avaliações realizadas com especialistas na área mostraram que o ARVET pode proporcionar um alto grau de estímulos ansiogênicos e a integração com o SAPTEPT ocorreu de forma satisfatória mostrando o potencial que os sistemas têm de serem utilizados em pacientes reais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estabilidade de taludes naturais é um tema de grande interesse ao engenheiro geotécnico, face às significativas perdas econômicas, e até mesmo humanas, resultantes da ruptura de taludes. Estima-se que a deflagração de escorregamentos já provocou milhares de mortes, e dezenas de bilhões de dólares em prejuízos anuais em todo o mundo. Os fenômenos de instabilização de encostas são condicionados por muitos fatores, como o clima, a litologia e as estruturas das rochas, a morfologia, a ação antrópica e outros. A análise dos condicionantes geológicos e geotécnicos de escorregamentos proporciona a apreciação de cada um dos fatores envolvidos nos processos de instabilização de encostas, permitindo a obtenção de resultados de interesse, no que diz respeito ao modo de atuação destes fatores. O presente trabalho tem como objetivo a utilização da Lógica Nebulosa (Fuzzy) para criação de um Modelo que, de forma qualitativa, forneça uma previsão do risco de escorregamento de taludes em solos residuais. Para o cumprimento deste objetivo, foram estudados os fatores envolvidos nos processos de instabilização de encostas, e a forma como estes fatores se interrelacionam. Como experiência do especialista para a elaboração do modelo, foi analisado um extenso banco de dados de escorregamentos na cidade do Rio de Janeiro, disponibilizado pela Fundação Geo-Rio. Apresenta-se, neste trabalho, um caso histórico bem documentado para a validação do Modelo Fuzzy e análises paramétricas, realizadas com o objetivo verificar a coerência do modelo e a influência de cada um dos fatores adotados na previsão do risco de escorregamento. Dentre as principais conclusões, destaca-se a potencialidade da lógica nebulosa na previsão de risco de escorregamentos de taludes em solo residual, aparecendo como uma ferramenta capaz de auxiliar na detecção de áreas de risco.